OPINIÓN

La ciberseguridad corre con IA, pero tropieza con cultura



Dirección copiada

La inteligencia artificial está transformando la ciberseguridad, generando nuevas oportunidades, pero también abriendo puertas a riesgos cada vez más complejos

Publicado el 7 ago 2025

Jesús Díaz Barrero

Director de Consultoría en Seguridad de Cortex y Servicios Cloud para EMEA en Palo Alto Networks



CULTURA ciberseguridad

Una cultura de ciberseguridad

La inteligencia artificial ha abierto en la ciberseguridad un terreno más complejo, más volátil, y también más prometedor. Actúa, al mismo tiempo, como escudo y como espada. Ayuda a los equipos de defensa a detectar patrones que antes eran invisibles, a priorizar amenazas, a automatizar respuestas. Pero también potencia a los atacantes, que ya se sirven de modelos generativos para diseñar phishing hiperrealista, crear deepfakes o ejecutar ataques que antes solo estaban al alcance de grupos altamente especializados. En este nuevo campo de batalla, la cuestión va más allá de quién tiene más y mejores recursos tecnológicos, y se centra en quién es capaz de traducirlos en decisiones ágiles, estructuras flexibles y una cultura que se anticipe al adversario.

Durante años, la conversación sobre ciberseguridad se ha centrado en establecer barreras: firewalls, perímetros, controles de acceso. Pero en un entorno distribuido, descentralizado y definido por el uso masivo de tecnologías como la IA generativa, esa lógica se ve demasiado reducida.

Errores en ciberseguridad por desconocimiento

Estamos viendo cada vez más riesgos críticos que se originan dentro de las propias organizaciones, no solo por accesos internos o exposiciones indebidas, sino también por errores humanos, como caer en intentos de phishing, y por la falta de plataformas o soluciones de seguridad eficaces. Estos riesgos suelen estar alimentados por el desconocimiento asociado a la velocidad con la que evoluciona la tecnología. Aparecen en cada herramienta no autorizada, en cada flujo de datos que escapa al control del área de seguridad, en cada modelo que puede ser manipulado para producir respuestas tóxicas o revelar información sensible. Por eso, ahora, en este nuevo mapa, la línea defensiva se despliega desde la cultura que sostiene la tecnología.

La expansión de la IA sin estrategia deja grietas críticas en las organizaciones

Según el último estudio que hemos realizado en Palo Alto Networks, el “2025 State of GenAI Report”, basado en el análisis de tráfico de más de 7.000 organizaciones globales, el uso de herramientas de IA generativa creció un 890% durante 2024. Esta aceleración, asociada a mejoras de productividad y ahorro operativo, ha repercutido también un aumento alarmante de los riesgos. En el primer trimestre de 2025, los incidentes de fuga de datos vinculados a IA generativa representaron ya el 14% del total. Además, cada organización convive con una media de 66 aplicaciones de IA generativa, muchas de ellas sin supervisión o marco de gobernanza. De hecho, casi 7 de estas aplicaciones se consideran de alto riesgo.

En demasiadas organizaciones, la inteligencia artificial ha sido tratada como una solución técnica más, que se compra, se despliega y se espera que funcione. Pero en seguridad, nada opera de forma aislada

JESÚS DÍAZ BARRERO, PALO ALTO

Esta expansión descontrolada, a menudo alimentada por decisiones no alineadas con los protocolos de TI, ha dado lugar al fenómeno ya conocido como Shadow AI, es decir, el uso de herramientas de inteligencia artificial en entornos corporativos sin control ni visibilidad por parte de la organización. Pero no se queda ahí. El informe añade otro dato inquietante al identificar que más del 70% de las aplicaciones evaluadas pueden ser manipuladas mediante ataques tipo jailbreak, lo que demuestra la fragilidad de muchos modelos frente a técnicas de manipulación sencillas pero efectivas. Este panorama debería servir como un aviso claro: adoptar IA no es lo mismo que integrarla. Y mucho menos, gobernarla.

En demasiadas organizaciones, la inteligencia artificial ha sido tratada como una solución técnica más, que se compra, se despliega y se espera que funcione. Pero en seguridad, nada opera de forma aislada. Para que una herramienta aporte valor real, debe encajar con una estrategia sólida de ciberseguridad.

El gran reto está en el uso que hacemos de la IA

Y ese uso depende de personas, estructuras, responsabilidades y hábitos, especialmente dentro los propios equipos de ciberseguridad. No basta con adquirir soluciones basadas en inteligencia artificial; es necesario que se entiendan, se integren en los flujos de trabajo y procesos cotidianos, se confíe en sus análisis y se responda a sus recomendaciones. Requiere cambiar la forma en que se toman decisiones, cómo se priorizan riesgos y cómo se comparte la información entre departamentos.

En muchas organizaciones, los responsables de seguridad siguen actuando como un área de control aislada del negocio, y en el nuevo contexto, la seguridad debe entenderse como una capacidad transversal. Esa transversalidad exige coordinación con TI, análisis de riesgos junto a legal o cumplimiento, y una interlocución clara con los responsables de producto o innovación. Proteger activos digitales es solo una parte; lo esencial es que todas las áreas entiendan cómo una mala decisión utilizando una herramienta de IA puede convertirse en un incidente. La cultura de seguridad se entrena más allá del SOC, se construye en cada interacción con la tecnología.

Lo que diferencia a las organizaciones resilientes no es el presupuesto, ni la tecnología en sí misma. Lo que sí las distingue es su capacidad para aprender antes que el atacante. Detectar nuevas técnicas de manipulación, ajustar políticas en tiempo real, actualizar modelos de confianza y revisar procesos obsoletos son señales de madurez adaptativa.

¿Por dónde empezar?

Este cambio de enfoque se construye, sin prisas, con paso firme. Y comienza con preguntas concretas: ¿Está nuestra inteligencia artificial realmente integrada en los procesos clave o sigue operando al margen? ¿Confían los equipos en lo que la IA les muestra o siguen tomando decisiones como si no existiera? ¿Existe una cultura que permita adaptarse al ritmo del riesgo sin depender siempre de una reacción tardía?

El mismo informe que citábamos antes recoge un dato que conviene leer más allá del número. En solo dos meses tras su lanzamiento, el tráfico asociado a DeepSeek-R1 creció un 1.800%. Ese ritmo de adopción es el que marca hoy las reglas del juego. Muchas veces no hay margen para entender a fondo, controlar con precisión o preparar a tiempo. La ventaja, entonces, está en quienes traducen esa velocidad en anticipación, convierten cada adopción en una decisión informada y hacen de la adaptabilidad una competencia organizativa constante. Porque ahí, en esa capacidad de aprender, ajustar y reaccionar con criterio, es donde se está jugando la verdadera seguridad.

Artículos relacionados