OPINIÓN

Ataques asistidos por IA generativa: la nueva frontera del phishing personalizado y los deepfakes en tiempo real



Dirección copiada

La capacidad de estos modelos para generar texto coherente se ve incrementada cuando se combinan con técnicas de recopilación automatizada de información (OSINT)

Publicado el 16 jul 2025

Iván Rodrigo

Director de Preventa en Westcon



deepfake

¿Cómo afrontar los deepfake?

La introducción de LLM en el ecosistema de amenazas ha transformado profundamente el panorama del cibercrimen. Lejos de limitarse a tareas benignas, los sistemas de inteligencia artificial generativa están siendo instrumentalizados para automatizar, escalar y personalizar ataques con una sofisticación sin precedentes. Examinar las capacidades técnicas actuales en el uso malicioso de IA generativa, su aplicación en campañas avanzadas de ingeniería social, la utilización de técnicas de síntesis audiovisual (deepfakes) en escenarios de fraude, y las respuestas que la industria de la ciberseguridad está comenzando a articular, es crucial.

Qué es un deepfake interactivo

Los modelos generativos de lenguaje, entrenados con grandes volúmenes de datos textuales, pueden producir comunicaciones altamente verosímiles en múltiples idiomas y registros. Aunque plataformas como ChatGPT poseen mecanismos de seguridad, existen versiones derivadas entrenadas sin restricciones éticas —como las denominadas FraudGPT o WormGPT— que han sido reportadas en foros clandestinos por permitir la creación de scripts de phishing, malware personalizado y otras acciones ofensivas.

La capacidad de estos modelos para generar texto coherente se ve incrementada cuando se combinan con técnicas de recopilación automatizada de información (OSINT). Esto permite redactar mensajes dirigidos a perfiles concretos con referencias contextuales creíbles, facilitando ataques de ingeniería social de alta precisión. El uso conjunto de generadores de voz neuronales y sintetizadores de vídeo realista ha dado lugar a un nuevo vector: el deepfake interactivo.

Técnicas emergentes en la cadena de ataque

Entre los procedimientos más relevantes actualmente observados destacan:

Prompt injection dirigido

Elaboración de entradas para LLM con datos previamente extraídos de fuentes abiertas (redes sociales, documentos públicos, perfiles corporativos), con el fin de producir comunicaciones altamente personalizadas.

Suplantación sincrónica mediante deepfakes

Uso de voz y vídeo generados en tiempo real para simular conversaciones con víctimas. Esto se ha aplicado en intentos de fraude corporativo y manipulación de autenticaciones en remoto.

Phishing multicanal coordinado

Generación simultánea de contenido textual adaptado a múltiples canales (correo electrónico, SMS, mensajería instantánea, scripts telefónicos), manteniendo coherencia narrativa y contexto.

Estos ataques presentan un grado de variabilidad y unicidad que dificulta su identificación mediante mecanismos tradicionales basados en firmas o listas negras.

¿Cómo defenderse de los deepfakes interactivos?

Para hacer frente a esta nueva clase de amenazas, las arquitecturas defensivas están incorporando mecanismos basados en inteligencia artificial, análisis de comportamiento y detección multimodal:

XDR con capacidades semánticas

Incorporación de modelos de lenguaje entrenados específicamente para identificar estructuras lingüísticas anómalas, suplantaciones y cambios en los patrones de comunicación interna.

Detección biométrica de deepfakes

Tecnologías emergentes que analizan microexpresiones, inconsistencias faciales, irregularidades fonéticas o asincronías en el parpadeo y la entonación.

Análisis de comportamiento (UEBA)

Modelos que perfilan la actividad habitual de usuarios y entidades para detectar desvíos sutiles, incluso en presencia de credenciales legítimas comprometidas.

Conclusiones: un cambio de paradigma

Puede decirse que a inteligencia artificial generativa representa un cambio de paradigma. En el entorno actual, la línea entre lo auténtico y lo simulado es cada vez más difícil de discernir. Esta ambigüedad genera un nuevo tipo de riesgo, especialmente en escenarios de suplantación, manipulación de la confianza y automatización de vectores de ataque.

La respuesta no puede limitarse a bloquear lo conocido. Debe partir de una comprensión profunda de los nuevos mecanismos de generación de amenazas y apoyarse en un enfoque multidimensional, donde converjan tecnología, procesos y cultura organizacional. Pero la IA no es únicamente una amenaza: es también una oportunidad estratégica. Las organizaciones que sean capaces de anticipar, adaptarse y adoptar defensas inteligentes estarán mejor posicionadas frente a esta disrupción.

Artículos relacionados