OPINIÓN

Reto del CISO: Cómo redactar una política de ciberseguridad para la IA generativa



Dirección copiada

La IA generativa convertirá en un nuevo añadido permanente en la caja de herramientas de TI de la empresa. Para los CISO, la presión está en desplegar políticas y tecnologías de seguridad de IA que puedan mitigar riesgos muy reales y presentes

Publicado el 23 ago 2023

Greg Young

vicepresidente de ciberseguridad de Trend Micro



ia generativa

Cada semana aparecen nuevos casos sobre el potencial de la IA para resolver problemas de gran envergadura, como el cambio climático, junto con advertencias funestas sobre sus riesgos para la civilización humana. En medio de todo ese ruido, los CISO necesitan urgentemente orientación práctica sobre cómo establecer prácticas de seguridad de IA para defender sus organizaciones. Con la combinación adecuada de políticas de ciberseguridad y herramientas avanzadas, las empresas pueden cumplir sus objetivos actuales y sentar las bases para hacer frente a las complejidades cambiantes de la IA en el futuro.

Cuando los mejores y más brillantes especialistas en una nueva tecnología afirman que mitigar sus riesgos debería ser una prioridad mundial, probablemente sea prudente prestar atención a ello. Eso es lo que ocurrió el 30 de mayo de 2023, cuando el Centro para la Seguridad de la IA publicó una carta abierta firmada por más de 350 científicos y líderes empresariales advirtiendo de los peligros potenciales más extremos que plantea la IA.

Lo que los CISO tienen que hacer, por tanto, es dar a la gente acceso a herramientas de IA respaldadas por políticas sensatas sobre cómo utilizarlas

Como señaló gran parte de la cobertura mediática posterior, temer lo hipotéticamente peor puede ser en realidad una peligrosa distracción a la hora de afrontar los riesgos de la IA a los que ya nos enfrentamos hoy en día, como el sesgo interno y los hechos inventados. El último de estos riesgos fue noticia hace poco, cuando se descubrió que el informe jurídico de un abogado generado por IA contenía casos completamente inventados.

Si esos son los riesgos, la siguiente pregunta obvia es: “¿Qué pueden hacer los CISO para impulsar la seguridad de la IA de sus organizaciones?”

Una buena política es la base de la seguridad de la IA

En la última década, los responsables de seguridad TI de las empresas han aprendido por las malas que prohibir el uso de determinados programas y dispositivos suele ser contraproducente y puede incluso aumentar el riesgo para la empresa. Si una app o solución es lo suficientemente cómoda -o si lo que autoriza la empresa no hace todo lo que los usuarios necesitan o desean-, la gente encuentra la manera de quedarse con las herramientas que prefiere, lo que lleva al problema del shadow IT.

Teniendo en cuenta que ChatGPT ha conseguido más de 100 millones de usuarios en tan solo dos meses desde su lanzamiento, es de suponer que esta y otras plataformas de IA generativa ya están bien integradas en los flujos de trabajo de los usuarios. Prohibirlas en la empresa podría crear un problema de “shadow IA” más peligroso que cualquier otra solución furtiva anterior o que se use a hurtadillas. Además, muchas empresas están impulsando la adopción de la IA como forma de aumentar la productividad y ahora les resultaría difícil bloquear su uso. 

Lo que los CISO tienen que hacer, por tanto, es dar a la gente acceso a herramientas de IA respaldadas por políticas sensatas sobre cómo utilizarlas. Están empezando a circular por Internet ejemplos de este tipo de políticas para grandes modelos lingüísticos como ChatGPT, junto con consejos sobre cómo evaluar los riesgos de seguridad de la IA. Pero aún no hay enfoques estándar. Ni siquiera el IEEE se ha puesto manos a la obra y, aunque la calidad de la información online mejora constantemente, no es siempre fiable. Cualquier organización que busque modelos de política de seguridad de la IA debe ser muy selectiva.

Cuatro consideraciones clave sobre la política de seguridad de la IA

Dada la naturaleza de los riesgos descritos anteriormente, la protección de la privacidad y la integridad de los datos corporativos son objetivos obvios para la seguridad de la IA. En consecuencia, cualquier política corporativa debería, como mínimo

1. Prohibir compartir información sensible o privada con plataformas públicas de IA o soluciones de terceros fuera del control de la empresa

“Hasta que no haya más claridad, las empresas deberían instruir a todos los empleados que utilicen ChatGPT y otras herramientas públicas de IA generativa para que traten la información que comparten como si la estuvieran publicando en un sitio público o en una plataforma social”, es como lo expresó recientemente Gartner.

2. No “cruzar las fronteras”

Mantenga reglas claras de separación para los distintos tipos de datos, de modo que la información personal identificable y todo lo que esté sujeto a protección legal o reglamentaria nunca se combine con datos que puedan compartirse con el público. Esto puede requerir establecer un esquema de clasificación para los datos corporativos si aún no existe.

3. Validar o comprobar cualquier información generada por una plataforma de IA para confirmar que es verdadera y exacta

El riesgo para una empresa de hacer públicos resultados de IA que son patentemente falsos es enorme, tanto desde el punto de vista de reputación como financiero. Las plataformas que pueden generar citas y notas a pie de página deberían estar obligadas a hacerlo, y esas referencias deberían comprobarse. Por lo demás, cualquier afirmación que se haga en un texto generado por IA debe ser examinada antes de utilizar el contenido. “Aunque [ChatGPT] da la ilusión de realizar tareas complejas, no tiene conocimiento de los conceptos subyacentes”, advierte Gartner. “Se limita a hacer predicciones”.

4. Adoptar -y adaptar- una postura de confianza cero

Zero trust es una forma sólida de gestionar los riesgos asociados al acceso de usuarios, dispositivos y aplicaciones a los recursos y datos informáticos de la empresa. El concepto ha ido ganando adeptos a medida que las organizaciones se peleaban por hacer frente a la disolución de los límites tradicionales de la red empresarial. Aunque es probable que la capacidad de la IA para imitar a las entidades de confianza suponga un reto para las arquitecturas zero-trust, en todo caso, eso hace que el control de las conexiones que no son de confianza sea aún más importante. Las amenazas emergentes que presenta la IA hacen que la vigilancia de zero trust sea crítica.

Elegir las herramientas adecuadas

Las políticas de seguridad de la IA pueden respaldarse y aplicarse con tecnología. Se están desarrollando nuevas herramientas de IA para ayudar a detectar estafas y tramas generadas por IA, textos plagiados y otros usos indebidos. Con el tiempo, se desplegarán para supervisar la actividad de la red, actuando casi como pistolas de radar o cámaras de luz roja para detectar la actividad maliciosa de la IA.

En la actualidad, ya se pueden utilizar soluciones de detección y respuesta ampliadas (XDR) para vigilar comportamientos anómalos en el entorno informático de las empresas. XDR utiliza IA y machine learning para procesar volúmenes masivos de datos de telemetría (es decir, recogidos a distancia) para vigilar las normas de la red en volumen. Aunque no es un tipo de IA creativa y generativa como ChatGPT, XDR es una herramienta entrenada que puede realizar tareas de seguridad específicas con gran precisión y fiabilidad.

Otros tipos de herramientas de supervisión, como la información de seguridad y la gestión de eventos (SIEM), los firewalls de aplicaciones y las soluciones de prevención de pérdida de datos, también pueden utilizarse para gestionar la navegación web y el uso de software de los usuarios, y para supervisar la información que sale del entorno informático de la empresa, minimizando los riesgos y la posible pérdida de datos.

Conocer los límites

Además de definir políticas corporativas inteligentes para la seguridad de la IA y hacer pleno uso de las herramientas actuales y novedosas a medida que surgen, las organizaciones deben ser específicas sobre el grado de riesgo que están dispuestas a tolerar para aprovechar las capacidades de la IA. Un artículo publicado por la Society for Human Resource Management recomienda que las organizaciones determinen formalmente su tolerancia al riesgo para ayudar a tomar decisiones sobre el alcance del uso de la IA y para qué.

La historia de la IA apenas ha empezado a escribirse y nadie sabe a ciencia cierta qué nos deparará el futuro. Lo que está claro es que la IA ha llegado para quedarse y, a pesar de sus riesgos, tiene mucho que ofrecer si la construimos y la utilizamos con prudencia. En el futuro, la propia IA se utilizará cada vez más para luchar contra los usos malintencionados de la IA, pero por ahora la mejor defensa es empezar con un enfoque reflexivo y claro.

Artículos relacionados

Artículo 1 de 4