«La IA tiene un problema grave: es muy mentirosa. Siempre te dará una respuesta para «quedar bien», aunque sea falsa», esta declaración de Rafael López, ingeniero de seguridad especializado en protección de correo electrónico de Check Point Software, nos alerta de los peligros de caer en un exceso de confianza en la inteligencia artificial. «Mucha gente tratan a la IA como si fuera una persona, cuando en realidad son algoritmos», dice.
El uso de la IA ya se está extendiendo por todas las empresas. ¿De qué manera están afrontando el reto de la fuga de datos a través de estas tecnologías?
Las empresas lo afrontan de manera desigual, ya que estamos en una etapa temprana de adopción de la IA. Puedo resumir las estrategias en tres enfoques principales: las empresas maduras, las que optan por la autogestión y las empresas menos preparadas.
Las empresas maduras están estableciendo procedimientos de implantación segura, como prohibir la subida de documentos confidenciales a inteligencias artificiales en la nube, y utilizan tecnología que bloquea prompts que violan las políticas de privacidad, impidiendo fugas de información sensible por accidente.
Por su parte, algunas de las empresas que optan por la autogestión instalan la IA en un servidor propio sin acceso a internet y la entrenan con sus propios datos y procedimientos. Esta es la forma más adecuada, ya que todo el conocimiento se queda en la empresa, aunque sigue necesitando medidas de seguridad para evitar accesos externos.
Y, por último, las empresas menos preparadas para la IA se suelen centrar en la concienciación del usuario, casi rogándole que no usen la IA para todo debido a los grandes riesgos normativos y las posibles multas.
A nivel personal y profesional, ¿cómo te has preparado para la avalancha de la IA?
Aunque he trabajado con la IA desde mis inicios profesionales, y en Check Point recibimos formación, casi el 99% de los profesionales somos autodidactas. Aprendemos a base de prueba y error.
El principal problema es que la tecnología avanza a una velocidad vertiginosa. Lo que aprendes hoy puede quedar obsoleto en cuestión de días con la salida de un nuevo modelo. Además, mucha gente tratan a la IA como si fuera una persona, cuando en realidad son algoritmos que crean datos nuevos a partir de información que ya conocen, no desde cero.
Muchos responsables de TI dicen que, aunque las empresas prohíban las herramientas de IA abiertas, los empleados las acaban usando por su cuenta si no se les da una alternativa. ¿Esto es así?
Es así. Se ha normalizado tanto su uso de herramientas como ChatGPT, que ya se promociona como un sustituto de los buscadores tradicionales como Google. Sin embargo, la IA tiene un problema grave: es muy mentirosa. Siempre te dará una respuesta para «quedar bien», aunque sea falsa, y está llena de sesgos por su entrenamiento. Por eso, la última defensa que nos queda es el sentido común humano. La IA es una herramienta de ayuda, pero a día de hoy, no sustituye al 100% los procesos.
Mucha gente tratan a la IA como si fuera una persona, cuando en realidad son algoritmos que crean datos nuevos a partir de información que ya conocen, no desde cero
Hablando de ciberdelincuencia, ¿en qué consiste la técnica del prompt injection y para qué la usan los atacantes?
El prompt injection consiste en enviar instrucciones maliciosas a una IA para que se salte sus restricciones de seguridad y revele información confidencial. Por ejemplo, en un chatbot de una empresa, un atacante podría pedirle que acceda a la base de datos y le dé nombres de clientes. Si no está bien protegida, la IA podría hacerlo. Es la evolución del SQL injection, pero usando lenguaje natural.
Para defendernos de este tipo de ataque, necesitamos dos capas: protección en la propia IA para que no permita este tipo de prompts y tecnología externa que intercepte y bloquee estas peticiones antes de que lleguen a la IA.
El peligro es que los ciberdelincuentes usan sus propias IA sin ningún código ético para crear automáticamente scripts que atacan de forma continua a las IA comerciales hasta que encuentran una vulnerabilidad.
Además del prompt injection, ¿de qué otras maneras se están valiendo de la IA los ciberdelincuentes para atacar?
Los ciberdelincuentes han perfeccionado estafas como la del fraude del CEO. Antes, podíamos detectar un correo falso por errores gramaticales o un estilo de escritura extraño, ahora, los ciberdelincuentes introducen hilos de correo enteros en una IA y esta es capaz de copiar a la perfección el estilo de escritura y el tono de una persona, incluyendo sus errores ortográficos y expresiones habituales.
También la usan para crear campañas de phishing increíblemente sofisticadas. Si un correo está perfectamente escrito, sin una sola falta, es muy posible que lo haya generado una IA. Lo mismo ocurre con las páginas web falsas: hay IA que clonan un sitio web legítimo, como el de un banco, de manera idéntica para robar credenciales.
Ante este panorama, ¿qué metodologías o tecnologías deberían utilizar las empresas para protegerse?
La protección debe ser integral. Alrededor del 95% de las amenazas llegan por el correo electrónico, por lo que una solución de protección para este canal es fundamental. También es clave proteger la navegación por internet, tanto a nivel empresarial como personal, usando herramientas como extensiones de navegador o VPN. Por supuesto, es imprescindible contar con un antivirus o un EDR para proteger los equipos.
Sin embargo, por encima de toda la tecnología está lo que yo llamo el «firewall humano»: el sentido común. Si algo parece demasiado bueno para ser verdad, probablemente no lo sea. Yo mismo casi caigo en una estafa de smishing (phishing por SMS) porque jugaron con mi psicología y la prisa del momento. Aplico la «regla de los 10 segundos»: respirar, pensar y recapacitar antes de actuar por impulso. Esos 10 segundos pueden evitar una gran pérdida, porque nadie está exento de caer.










