Índice de temas
IA: una ciberguerra de titanes
En los cómics los superhéroes luchan contra los malvados que quieren sojuzgar a la sociedad. Con igual talante, las empresas de software de seguridad —esas guardianas del ciberespacio— tienen que vérselas con inteligencias artificiales que se están especializando a marchas forzadas para atacar, infiltrar y destruir con precisión automatizada. Profesionales del bien y del mal afrontan un guerra titánica dotados de las armas que inspira la inteligencia artificial, enriquecida con la GenAI y los prolíficos Agentes IA.
Retrato apocalíptico del futuro
Imaginemos el siguiente escenario: “Los malvados ya no lucen capucha y vaqueros, sino que se enmascaran en algoritmos y redes neuronales. Sus ejércitos son enjambres de bots y drones virtuales que saquean los dominios corporativos, encriptan archivos, roban datos y los subastan en los callejones del mercado negro digital”. ¿Hablamos de un futuro distópico creado por la imaginación desbocada de este periodista o un horizonte más que plausible?
¿Hablamos de un futuro distópico creado por la imaginación desbocada de este periodista o un horizonte más que plausible?
Con la incorporación casi enfermiza de la inteligencia artificial en los programas tanto legales como maliciosos, los temores se acrecientan y arrecian las preguntas: ¿qué papel le quedará al ser humano en este futuro presumible? ¿Será protagonista o mero espectador de una batalla entre inteligencias artificiales? ¿Hasta qué punto la IA puede tomar los mandos y dejarnos relegados?
Agentes IA, ¿licencia para hackear?
En estos momentos en que los Agentes de IA, acaparan la innovación tecnológica, cabe preguntarse si existe un riesgo que sean utilizados por los ciberdelincuentes de forma autónoma para desarrollar malware de autoaprendizaje.
“Por ahora no hemos detectado ese riesgo”. Eusebio Nieva, director técnico de Check Point, se muestra cauto pero sereno. Se refiere a la posibilidad -más de ciencia ficción que de realidad inmediata- de un malware de autoprendizaje, un virus capaz de reinventarse solo, de mutar sin intervención humana.
“Los del lado oscuro están utilizando la inteligencia artificial para mejorar el malware, para hacerlo menos detectable”, matiza. “Pero de ahí a que sea autogenerado todavía queda. La base de datos de lenguaje que se necesitaría para una IA generativa es extraordinariamente grande”.
A diario, Check Point y otros proveedores de la competencia, monitorizan cientos de miles de ataques. Muchos llevan el marchamo de una nueva tribu de ciberdelincuentes: programadores con conocimiento de IA que ya no crean código desde cero, sino que se apoyan en herramientas generativas para pulir, esconder y optimizar sus trampas. “Lo que sí hemos visto -reconoce- es que la inteligencia artificial se utiliza para ayudar a los codificadores a ser más productivos o a rebajar el nivel técnico necesario para ser un atacante. Es decir, la IA reduce la barrera de entrada al delito”.
Un estudio de Kaspersky coincide en estas apreciaciones, y la leyenda negra la IA maliciosa se acrecienta en el imaginario colectivo: el 42% de los encuestados españoles cree que la mayoría de los ciberataques que han sufrido sus empresas en los últimos 12 meses se han utilizado tecnologías de IA».

La IA permite a los ciberdelincuentes atacar a sus objetivos con mayor velocidad y precisión. Una de las transformaciones más significativas es la forma en que la IA ha revolucionado las campañas automatizadas de phishing e ingeniería social.
Estafas nativas de IA
En esta misma línea, los expertos de Zerod, un marketplace de white hackers (como les gusta autodenominarse), detectan un auge de estafas impulsadas por inteligencia artificial. Entre las más preocupantes figuran el robo masivo de credenciales y datos financieros, dirigido especialmente al sector hotelero mediante phishing automatizado; los deepfakes con impacto político; y los fraudes de identidad.
Una amenaza aparentemente inofensiva es el fraude de identidad mediante clonación de voz. Hoy basta con unos segundos de audio para recrear la voz de un directivo, un proveedor o incluso un familiar. “Esa clonación se utiliza en llamadas (vishing) para ordenar transferencias urgentes o convencer a un empleado de que comparta información sensible”, señala Víctor Ronco, CEO de Zerod.
Industrialización del malware
A esto se suman las técnicas de prompt injection, que consisten en inyectar instrucciones maliciosas en asistentes de inteligencia artificial. Estas vulnerabilidades abren grietas en aplicaciones corporativas que hasta hace poco parecían seguras y que ahora pueden ser manipuladas para extraer datos confidenciales, alterar respuestas o ejecutar acciones no previstas por los desarrolladores.
Lo más preocupante no es solo que la IA facilite un fraude, sino que lo industrializa. “En los últimos seis meses hemos visto cómo operaciones que antes requerían días de preparación, como grabar un audio falso o crear una web trampa, hoy se pueden replicar en cuestión de minutos y a gran escala. Eso obliga a repensar por completo las defensas, porque el adversario juega ahora con una ventaja de velocidad y realismo”, resume Ronco.
La nueva ciberseguridad no es ya una muralla, sino un tablero de inteligencia en el que humanos y máquinas juegan una partida sin final visible
ANTONIO PITA, UOC
El profesor de la UOC Antonio Pita, lo describe gráficamente: “La nueva ciberseguridad no es ya una muralla, sino un tablero de inteligencia en el que humanos y máquinas juegan una partida sin final visible». La inteligencia artificial ha transformado el viejo concepto de defensa digital en un territorio cambiante, donde los ataques aprenden, se perfeccionan y se replican con una autonomía inquietante. “Nos obliga a convivir con un nuevo tipo de adversario: uno que también aprende”, advierte el profesor de la UOC. En ese pulso silencioso entre el algoritmo y la conciencia humana, la cultura de la ciberseguridad emerge como un valor ciudadano, casi una nueva alfabetización necesaria para sobrevivir en el siglo XXI.
Límites del mal
Por suerte, esa ‘la democratización del mal’ tiene límites. Entrenar un modelo de lenguaje, explica Nieva, sigue siendo un desafío económico y computacional colosal. “El entrenamiento de un modelo cuesta millones. El último dato que tengo rondaba los 46 millones de dólares a la semana. Solo entrenarlo. Y podía tardar un mes o dos”.
La ejecución, en cambio, es más asequible: con una inversión relativamente modesta -unos 12.000 euros- se puede montar un ordenador capaz de ejecutar modelos open source de gran tamaño.
Nieva destroza otro mito: “En realidad, los agentes IA lo que hacen es dar vueltas a los mismos patrones, modificarlos, variar dentro de unos límites. Pero no razonan. No inventan nada nuevo. La IA actual no crea, solo combina”.
El verdadero riesgo, sostiene el experto, no está aún en la autonomía de la máquina, sino en su eficacia como asistente del crimen. “Están refinando los ataques de phishing, haciéndolos más indetectables para los humanos. Y también usan la inteligencia artificial para analizar los datos robados. Imagina: entran en una cuenta, extraen el correo y, mediante IA, buscan facturas o pagos que luego utilizan para ataques de business email compromise. Lo hacen con más inteligencia, más rapidez y menos coste”.
Carrera armamentística algorítmica
Cuando se le pregunta si estamos viviendo una carrera armamentística algorítmica, Nieva asiente con cierta resignación. “Nosotros llevamos muchos años utilizando inteligencia artificial para defendernos. Pero hay que diferenciar entre dos tipos: la generativa, que crea, y la discriminativa, que diagnostica. Esta última -basada en machine learning o deep learning– es la que decide si algo es bueno o malo. La usamos para alimentar nuestra ThreatCloud, igual que muchos otros actores de ciberseguridad”.
Las máquinas aprenden, sí, pero bajo tutela humana. “La inteligencia artificial necesita ejemplos etiquetados: esto es bueno, esto es malo. Si no, no puede aprender. Y además, su diagnóstico es probabilístico. Puede decirte que algo es malo al 95%, pero un humano necesita certezas. Por eso siempre habrá un componente humano en la ecuación”.
No hay que caer en el amarillismo
Los profesionales de la ciberseguridad se resisten a los titulares catastrofistas que hablan de una inminente rebelión de las máquinas. “No hay que caer en el amarillismo. Pero tampoco en la ingenuidad. Hay base para preocuparse: no solo por el uso de la IA como herramienta de ataque, sino por los ataques que se están produciendo contra las propias inteligencias artificiales”.
En la dark web ya se trafica con cuentas de ChatGPT robadas o con servicios de IA sin los llamados guardarraíles, las limitaciones éticas o técnicas que impiden generar contenidos ilícitos. Existen versiones como WormGPT, modelos entrenados específicamente para crear phishing o código malicioso. Son inteligencias artificiales sin frenos. No son legales, pero existen.
Todo son fuegos cruzados entre una IA que ataca y otra que defiende. El futuro dependerá de cómo gestionemos ese equilibrio. “Pero una cosa está clara: la guerra ya ha empezado. Y, de momento, los humanos seguimos en el frente”.
El caso Antrophic, extorsión masiva impulsada por IA
Anthropic, la firma detrás del popular chatbot de inteligencia artificial Claude, ha sido víctima de la campaña de extorsión impulsada por IA más extensa documentada hasta la fecha.
El atacante, que operó fuera de Estados Unidos, manipuló Claude Code, una versión del asistente diseñada para generar programación a partir de instrucciones humanas. Con ella, no solo identificó empresas vulnerables, sino que fabricó el código malicioso necesario para infiltrarlas y coordinó ataques durante tres meses contra al menos diecisiete organizaciones.
El relato da pasto al catastrofismo. Claude también redactó los correos de extorsión. Calculó las sumas de rescate con lógica empresarial (entre 75.000 y 500.000 dólares) tras analizar la capacidad financiera de cada víctima. Entre los afectados, confirma Anthropic, figuran un contratista de defensa, una entidad financiera y varios proveedores del sector salud.
“La era de los piratas informáticos asistidos por IA ha comenzado”, advirtió Satish Swargam, consultor principal de seguridad en Black Duck. Para la especialista Nivedita Murthy, el caso revela un peligro más profundo: “Las herramientas de inteligencia artificial pueden llegar a conocer demasiado sobre las organizaciones que las usan”, dijo, apuntando al dilema entre eficiencia y vulnerabilidad.









