Phil Tee, vicepresidente ejecutivo y director de Innovaciones en Inteligencia Artificial de Zscaler, habla de cómo se conjugan, y se potencian, tecnologías como la IA y la ciberseguridad en el Zenith Live 2025, celebrado en Praga
¿Cuál es exactamente su misión en Zscaler?
Zscaler posee un activo de datos absolutamente único, ya que nos ubicamos en el centro de internet y gestionamos todas las comunicaciones de nuestros clientes. Por nuestra plataforma pasan 500.000 millones de transacciones al día, con información detallada sobre los datos: metadatos, origen y destino, las acciones asociadas, la identidad de quienes los tratan… Esta posición nos permite llevar la ciberseguridad al siguiente nivel, y mi misión es impulsar la innovación utilizando esos datos junto con las novedades en IA generativa.
¿Qué diferencia la estrategia de IA de Zscaler de la de otros actores en la industria?
Hay dos aspectos fundamentales que nos distinguen. Primero, Zscaler tiene una cultura de innovación impulsada por nuestro fundador, Jay Chaudhry, quien siempre ha invertido mucho en ella, lo que supone una cualidad rara en una empresa de nuestra escala. Segundo, combinamos esta mentalidad innovadora con nuestra posición de pioneros en zero trust y una fuerte presencia en casi la mitad de las empresas de Fortune 2000. Esta combinación nos posiciona de manera única para triunfar con la innovación en IA en ciberseguridad.
¿Cómo miden el impacto real de la IA en sus productos y servicios de seguridad?
La IA debe tener un impacto real, que se traduce en mejorar los resultados mientras se reduce el esfuerzo. Por ejemplo, el análisis de la causa raíz de una amenaza puede llevar de tres horas a tres meses. Si la IA pudiera reducir esa fase de diagnóstico de meses a minutos, o incluso a un instante, el impacto en la postura de seguridad sería dramático. Además, al eliminar el trabajo manual, se logra una reducción de la carga de trabajo mientras se mejoran los resultados.
Vivimos en un mundo cada vez más conflictivo, con el ciberespacio como un nuevo campo de batalla. ¿Cree que la IA ayuda más a las empresas o a los atacantes? ¿Cómo se mantienen un paso por delante?
La ciberseguridad es un juego del gato y el ratón. Nosotros, «los buenos», también desplegamos muchos recursos y mentes motivadas para mantenernos un paso por delante. En Zscaler, estamos invirtiendo mucho en esto. Como ejemplo, en la Segunda Guerra Mundial, en Bletchley Park, «los buenos» descifraron el código Enigma. Soy optimista: la innovación con buenas intenciones siempre gana, porque tenemos más que perder que los ciberdelincuentes, pero mucho más que ganar.
La ciberseguridad es un juego del gato y el ratón. Nosotros, «los buenos», también desplegamos muchos recursos y mentes motivadas para mantenernos un paso por delante
Zscaler habla mucho sobre modelos de lenguaje grandes (LLM). ¿Cuál es el papel de este tipo de modelos generativos en la ciberdefensa?
Los LLM son cruciales para la automatización de operaciones de seguridad (SecOps) y la detección de amenazas. Incluso se utilizan modelos de lenguaje pequeños para la clasificación de datos. En Zscaler, vamos más allá: utilizamos nuestros datos para afinar y entrenar modelos personalizados que nos permiten comprender la causalidad en los registros (logs). La clave es extraer los patrones, la «música de los logs», para impulsar un mejor análisis automatizado de causas raíz.
¿Podría compartir un ejemplo de cómo han integrado la IA en la plataforma de Zscaler?
Por su puesto. Un claro ejemplo es nuestra nueva versión con IA privada, AI Guard, que se lanzará pronto y permite la inspección y clasificación de prompts. Esto facilita la configuración de políticas muy granulares para controlar por quién y cómo se utilizan los sistemas de IA generativa. Es un uso directo de la tecnología de IA para mejorar el uso de la propia IA.
¿Qué tipo de datos son los más valiosos para entrenar los sistemas de detección de amenazas basados en IA?
En términos de valor, no hay datos que no sean útiles. Esto incluye datos de registro (log data), datos de endpoints, datos de amenazas, acciones de los usuarios (como ediciones de políticas), datos de tickets de incidentes y hilos de Slack. Todos estos datos son muy útiles para entrenar un sistema de IA que automatice operaciones de seguridad, gestión de la postura de amenazas, detección de amenazas y protección de datos en toda la suite de Zscaler.
Dada la creciente preocupación por la privacidad, ¿cómo equilibra Zscaler la eficiencia de la IA con la necesidad de mantener la protección de los datos del usuario?
Este es un tema importante. En Zscaler, no almacenamos los prompts de los usuarios ni sus datos; los clientes almacenan sus datos con sus propias claves. No compartimos información propietaria con modelos fundacionales públicos; todo se mantiene secreto y separado. Respetamos la soberanía de los datos y legislaciones como el GDPR. Sin embargo, la IA generativa presenta desafíos severos en privacidad y soberanía porque es casi imposible eliminar datos del entrenamiento de los LLM, dada su complejidad.
Y hablando de regulación, ¿cree que en Europa estamos extra regulados o que la regulación impulsa a las empresas a ser más seguras? Usted opera en el mercado estadounidense, ¿ve diferencias entre las empresas estadounidenses y europeas?
La cultura emprendedora en Estados Unidos es muy activa y está menos regulada que en Europa. La regulación tiene sus ventajas; por ejemplo, la comida en Europa tiene garantías de seguridad que no siempre se encuentran en Estados Unidos. Pero en cuanto a la regulación de la IA, me inclino a pensar que los gobiernos están rezagados debido al rápido ritmo de la tecnología. Es muy difícil regular algo tan cambiante. Como fabricante, Zscaler está 100% comprometido a colaborar activamente con las autoridades reguladoras para cumplir con toda la legislación vigente.
En cuanto a la regulación de la IA, me inclino a pensar que los gobiernos están rezagados debido al rápido ritmo de la tecnología
¿Cuáles son los principales dilemas éticos a los que se enfrenta el uso de la IA?
Los LLM se entrenan con datos de internet, que están llenos de sesgos históricos. Por ejemplo, en el Reino Unido, las leyes contra la discriminación sexual son relativamente recientes. Esto significa que la IA refleja los sesgos de la sociedad en la que se desarrolló. Es nuestra responsabilidad construir barreras de protección, como guardarraíles, para que la IA no refleje esos prejuicios en sus decisiones. Es crucial que los profesionales de la IA tengamos esto en cuenta al construir sistemas, asegurando que no seamos injustamente prejuiciosos contra los operadores.
¿Qué tendencias o tecnologías emergentes, además de la IA, cree que nos llevarán a la próxima ola de innovación en seguridad?
Definitivamente hay que prestar atención a la computación cuántica, especialmente la criptografía cuántica. Algunos argumentan que ya existen computadoras cuánticas capaces de descifrar algoritmos como RSA (Rivest-Shamir-Adleman), un algoritmo de cifrado asimétrico ampliamente utilizado para la seguridad de datos en comunicaciones. Esta es otra ola en la que un proveedor de ciberseguridad como Zscaler debe mantenerse a la vanguardia. La combinación de la cuántica y la IA podría ser un escenario completamente nuevo, con una IA mucho más innovadora y evolucionada.
¿Qué tipo de perfiles buscan actualmente para el equipo de innovación en IA?
Buscamos personas con una trayectoria muy diversa, tanto intelectual como de experiencia. No se trata de contratar perfiles idénticos. Me interesan las personas súper inteligentes que puedan aprender muy rápido debido a la velocidad de los avances. Pero, junto con eso, me interesa la humildad intelectual: personas que no buscan ser las más inteligentes de la sala o tener siempre la razón, sino que puedan trabajar en equipo, que sean humildes y estén dispuestas a aprender y aceptar que no siempre se puede tener la razón. Esa combinación de antecedentes diversos, inteligencia aguda y humildad intelectual es clave.
Y finalmente, ¿cree que veremos una autonomía total de la IA en los sistemas de ciberseguridad?
Sí, lo creo. La pregunta es si será sociológicamente permisible, incluso si existe, si se podrá implementar sin que haya un humano presente. Pero es indudable que, en muchísimas áreas de nuestras vidas, los sistemas totalmente autónomos serán una realidad más pronto que tarde.










