ENTREVISTAS

“Los ciberdelincuentes utilizan ChatGPT de forma habitual”



Dirección copiada

Mario García, director general de Check Point Software para España y Portugal abunda sobre la doble cara de la IA generativa dentro de la ciberseguridad

Publicado el 26 feb 2024

Rufino Contreras

Redactor Jefe



Mario García

La Inteligencia Artificial Generativa (IA Generativa) presenta un doble filo en el ámbito de la ciberseguridad, ya que ofrece tanto ventajas como desafíos tanto para los defensores como para los atacantes.

En el lado positivo, la IA Generativa puede mejorar significativamente la detección de amenazas y el análisis de datos en ciberseguridad. Los algoritmos generativos pueden ser entrenados para identificar patrones sospechosos en grandes conjuntos de datos, lo que permite a los sistemas de seguridad anticiparse y responder más rápidamente a las posibles amenazas. Además, la IA Generativa puede utilizarse para generar datos de prueba sintéticos que ayuden a mejorar los modelos de detección de intrusiones y a desarrollar sistemas de defensa más robustos. Sobre todas estas ideas bascula la siguiente entrevista con Mario García, director general de Check Point para España y Portugal.

¿En qué medida la IA Generativa está cambiando el panorama de la ciberseguridad?

El rápido desarrollo de las tecnologías de inteligencia artificial supone nuevas oportunidades para la ciberseguridad, pero también retos cada vez más complejos. Durante el último año, la Inteligencia Artificial Generativa -como ChatGPT– ha ido ganando presencia. Mientras tanto, los ciberdelincuentes están sacando todo su potencial para explotar vulnerabilidades y crear nuevos vectores de ataques. Un año después del lanzamiento de ChatGPT, se puede observar cómo muchos servicios de ciberdelincuencia ya utilizan de manera habitual la IA Generativa, especialmente para la suplantación de identidad y la ingeniería social para aumentar así la eficacia de sus ataques.

¿Cuáles son las principales ventajas que ofrece la IA Generativa a los ciberdelincuentes?

Los ciberdelincuentes utilizan cada vez más la Inteligencia Artificial Generativa y algunas de sus formas más comunes son: creación de cuentas falsas de redes sociales, suplantación de identidad con deepfake, creación automática de textos de spam y generación de documentación falsa para acceder a los servicios de verificación KYC.

¿Cuáles son los principales desafíos que la IA Generativa presenta para los profesionales de la ciberseguridad?

Una de las formas más comunes en las que se emplea la IA es en la generación de spam con diversos objetivos como el phishing, obtención de credenciales, distribución de malware, estafas, etc. Los ciberdelincuentes pueden crear textos únicos para cada correo, con lo que consiguen eludir los controles antispam y antiphishing de los servicios de correo electrónico con una tasa éxito del 70%. Están empleando la IA para pulir sus técnicas y ahora son capaces de encontrar vulnerabilidades en la red más rápido, suplantar identidades de forma más precisa o automatizar los ataques phishing. Tenemos que seguir sus pasos de cerca.

Plataforma Black-Hat impulsada con IA para suplantar las redes sociales: ¿Cómo funciona este tipo de plataforma?

La plataforma Black-Hat emplea la Inteligencia Artificial para generar contenido en redes sociales y automatizar el mantenimiento de las cuentas falsas. Puede crear contenido simultáneamente para más de 200 cuentas y hacerlo de manera diaria. Además, promocionan los perfiles y les dan sensación de autenticidad uniéndose a grupos relevantes, dando a “me gusta” a cuentas similares para poder conseguir más seguidores y usar este tráfico de cuentas para sus fines maliciosos.

¿Cómo pueden las empresas y usuarios detectar y prevenir deepfakes?

Se ha identificado un nuevo servicio de suplantación que se centra en proporcionar servicios de deepfake de tres formas diferentes: sincronización de labios, sincronización de labios y reemplazo de rostro y doblaje de voz. Para identificarlos es importante buscar características como movimientos bruscos, cambios de iluminación de un fotograma al siguiente, cambios en el tono de piel, parpadeo extraño o ausencia de parpadeo, falta de sincronía de los labios con el habla o variaciones de luz.

¿Cómo pueden las empresas y usuarios garantizar la seguridad de sus procesos de verificación KYC?

Los servicios de KYC (Know Your Client) son frecuentes en las empresas financieras en las que recopilan información detallada de sus clientes para garantizar la seguridad de sus transacciones, mitigar los riesgos y cumplir con las regulaciones. También se emplea para que los clientes puedan recuperar el acceso a sus cuentas como una forma de reestablecer la contraseña. Con el fin de acceder a estos sistemas de forma ilícita, se han creado servicios clandestinos que generan documentación falsa con ayuda de la IA y consiguen unos resultados muy fieles rápidamente.

¿Cómo cree que evolucionará el uso de la IA Generativa en la ciberseguridad en el futuro?

Durante este 2024 se prevé que más ciberdelincuentes adopten la IA para acelerar y ampliar las funcionalidades de sus herramientas. Ya sea para un desarrollo rápido más rentable de nuevas variantes de malware y ransomware o para utilizar tecnologías deepfake con el fin de llevar el phishing y los ataques de suplantación de identidad al siguiente nivel.

El uso de la Inteligencia Artificial hará que el ransomware sea cada vez más avanzado, lo que requiere que las empresas no solo se centren en prevenir los ataques, sino también en mejorar sus planes de respuesta a incidentes y recuperación para mitigar el impacto potencial. Para ello, debemos innovar más rápido que las amenazas a las que nos enfrentamos para ir un paso por delante y aprovechar todo el potencial de la IA para la ciberseguridad, con la vista puesta en un uso responsable y ético. A medida que las amenazas se vuelven más sofisticadas, las empresas necesitan evolucionar su enfoque de seguridad para mantenerse a la vanguardia.

Artículos relacionados