PREGUNTAS FRECUENTES
¿Por qué es importante hablar de una cultura de ciberseguridad y no solo de herramientas tecnológicas?
Porque la tecnología por sí sola no garantiza protección. La verdadera seguridad radica en cómo las personas, los procesos y las estructuras de una organización se adaptan y responden al riesgo. Una cultura de ciberseguridad permite decisiones más ágiles, anticipación frente a amenazas y uso responsable de la inteligencia artificial.
¿Cómo está afectando la inteligencia artificial al panorama de la ciberseguridad?
La IA tiene un doble filo: ayuda a detectar amenazas y automatizar defensas, pero también es utilizada por atacantes para crear ataques más sofisticados, como phishing hiperrealista y deepfakes. La expansión acelerada de estas herramientas sin control estratégico está generando nuevos riesgos dentro de las organizaciones.
¿Qué es el fenómeno de la «Shadow AI» y por qué es peligroso?
La “Shadow AI” se refiere al uso de herramientas de inteligencia artificial dentro de una organización sin conocimiento ni supervisión del área de TI o ciberseguridad. Esto representa un riesgo crítico porque muchas de esas aplicaciones pueden ser manipuladas fácilmente, lo que deja expuestos datos sensibles y sistemas clave.
¿Qué errores comunes cometen las organizaciones en relación con la IA y la ciberseguridad?
Uno de los errores más comunes es tratar la IA como una solución técnica aislada. Muchas organizaciones implementan herramientas sin integrarlas realmente en los procesos clave, sin capacitación adecuada o sin establecer controles de gobernanza. Esto genera errores humanos, decisiones mal informadas y exposición innecesaria al riesgo.
¿Qué caracteriza a una organización resiliente en materia de ciberseguridad?
No es el presupuesto ni la cantidad de tecnología instalada, sino su capacidad para aprender antes que los atacantes. Las organizaciones resilientes ajustan políticas en tiempo real, entienden el valor de la información, y construyen una cultura de seguridad transversal que involucra a todas las áreas del negocio.
Índice de temas
Una cultura de ciberseguridad
La inteligencia artificial ha abierto en la ciberseguridad un terreno más complejo, más volátil, y también más prometedor. Actúa, al mismo tiempo, como escudo y como espada. Ayuda a los equipos de defensa a detectar patrones que antes eran invisibles, a priorizar amenazas, a automatizar respuestas. Pero también potencia a los atacantes, que ya se sirven de modelos generativos para diseñar phishing hiperrealista, crear deepfakes o ejecutar ataques que antes solo estaban al alcance de grupos altamente especializados. En este nuevo campo de batalla, la cuestión va más allá de quién tiene más y mejores recursos tecnológicos, y se centra en quién es capaz de traducirlos en decisiones ágiles, estructuras flexibles y una cultura que se anticipe al adversario.
Durante años, la conversación sobre ciberseguridad se ha centrado en establecer barreras: firewalls, perímetros, controles de acceso. Pero en un entorno distribuido, descentralizado y definido por el uso masivo de tecnologías como la IA generativa, esa lógica se ve demasiado reducida.
Errores en ciberseguridad por desconocimiento
Estamos viendo cada vez más riesgos críticos que se originan dentro de las propias organizaciones, no solo por accesos internos o exposiciones indebidas, sino también por errores humanos, como caer en intentos de phishing, y por la falta de plataformas o soluciones de seguridad eficaces. Estos riesgos suelen estar alimentados por el desconocimiento asociado a la velocidad con la que evoluciona la tecnología. Aparecen en cada herramienta no autorizada, en cada flujo de datos que escapa al control del área de seguridad, en cada modelo que puede ser manipulado para producir respuestas tóxicas o revelar información sensible. Por eso, ahora, en este nuevo mapa, la línea defensiva se despliega desde la cultura que sostiene la tecnología.
La expansión de la IA sin estrategia deja grietas críticas en las organizaciones
Según el último estudio que hemos realizado en Palo Alto Networks, el “2025 State of GenAI Report”, basado en el análisis de tráfico de más de 7.000 organizaciones globales, el uso de herramientas de IA generativa creció un 890% durante 2024. Esta aceleración, asociada a mejoras de productividad y ahorro operativo, ha repercutido también un aumento alarmante de los riesgos. En el primer trimestre de 2025, los incidentes de fuga de datos vinculados a IA generativa representaron ya el 14% del total. Además, cada organización convive con una media de 66 aplicaciones de IA generativa, muchas de ellas sin supervisión o marco de gobernanza. De hecho, casi 7 de estas aplicaciones se consideran de alto riesgo.

En demasiadas organizaciones, la inteligencia artificial ha sido tratada como una solución técnica más, que se compra, se despliega y se espera que funcione. Pero en seguridad, nada opera de forma aislada
JESÚS DÍAZ BARRERO, PALO ALTO
Esta expansión descontrolada, a menudo alimentada por decisiones no alineadas con los protocolos de TI, ha dado lugar al fenómeno ya conocido como Shadow AI, es decir, el uso de herramientas de inteligencia artificial en entornos corporativos sin control ni visibilidad por parte de la organización. Pero no se queda ahí. El informe añade otro dato inquietante al identificar que más del 70% de las aplicaciones evaluadas pueden ser manipuladas mediante ataques tipo jailbreak, lo que demuestra la fragilidad de muchos modelos frente a técnicas de manipulación sencillas pero efectivas. Este panorama debería servir como un aviso claro: adoptar IA no es lo mismo que integrarla. Y mucho menos, gobernarla.
En demasiadas organizaciones, la inteligencia artificial ha sido tratada como una solución técnica más, que se compra, se despliega y se espera que funcione. Pero en seguridad, nada opera de forma aislada. Para que una herramienta aporte valor real, debe encajar con una estrategia sólida de ciberseguridad.
El gran reto está en el uso que hacemos de la IA
Y ese uso depende de personas, estructuras, responsabilidades y hábitos, especialmente dentro los propios equipos de ciberseguridad. No basta con adquirir soluciones basadas en inteligencia artificial; es necesario que se entiendan, se integren en los flujos de trabajo y procesos cotidianos, se confíe en sus análisis y se responda a sus recomendaciones. Requiere cambiar la forma en que se toman decisiones, cómo se priorizan riesgos y cómo se comparte la información entre departamentos.
En muchas organizaciones, los responsables de seguridad siguen actuando como un área de control aislada del negocio, y en el nuevo contexto, la seguridad debe entenderse como una capacidad transversal. Esa transversalidad exige coordinación con TI, análisis de riesgos junto a legal o cumplimiento, y una interlocución clara con los responsables de producto o innovación. Proteger activos digitales es solo una parte; lo esencial es que todas las áreas entiendan cómo una mala decisión utilizando una herramienta de IA puede convertirse en un incidente. La cultura de seguridad se entrena más allá del SOC, se construye en cada interacción con la tecnología.
Lo que diferencia a las organizaciones resilientes no es el presupuesto, ni la tecnología en sí misma. Lo que sí las distingue es su capacidad para aprender antes que el atacante. Detectar nuevas técnicas de manipulación, ajustar políticas en tiempo real, actualizar modelos de confianza y revisar procesos obsoletos son señales de madurez adaptativa.
¿Por dónde empezar?
Este cambio de enfoque se construye, sin prisas, con paso firme. Y comienza con preguntas concretas: ¿Está nuestra inteligencia artificial realmente integrada en los procesos clave o sigue operando al margen? ¿Confían los equipos en lo que la IA les muestra o siguen tomando decisiones como si no existiera? ¿Existe una cultura que permita adaptarse al ritmo del riesgo sin depender siempre de una reacción tardía?
El mismo informe que citábamos antes recoge un dato que conviene leer más allá del número. En solo dos meses tras su lanzamiento, el tráfico asociado a DeepSeek-R1 creció un 1.800%. Ese ritmo de adopción es el que marca hoy las reglas del juego. Muchas veces no hay margen para entender a fondo, controlar con precisión o preparar a tiempo. La ventaja, entonces, está en quienes traducen esa velocidad en anticipación, convierten cada adopción en una decisión informada y hacen de la adaptabilidad una competencia organizativa constante. Porque ahí, en esa capacidad de aprender, ajustar y reaccionar con criterio, es donde se está jugando la verdadera seguridad.









