OPINIÓN

Quiero hablar con un agente ¿Humano o de IA?



Dirección copiada

Los agentes IAse comportan como usuarios, pero con una velocidad, escala y autonomía que ningún humano puede igualar

Publicado el 10 mar 2026

Juan Pablo Navarro

CISO Sopra Steria



A professional uses a smartphone to access futuristic AI agents with icons for chat, search, and cloud data, representing artificial intelligence, smart business solutions, and digital innovation.
A professional uses a smartphone to access futuristic AI agents with icons for chat, search, and cloud data, representing artificial intelligence, smart business solutions, and digital innovation.

Durante décadas, el concepto de identidad digital ha estado firmemente ligado a las personas. Usuarios, credenciales, roles, permisos y auditorías se diseñaron para representar a individuos humanos interactuando con sistemas informáticos. Sin embargo, ese supuesto fundacional ha dejado de ser válido. Hoy, en un número creciente de organizaciones, los actores más activos dentro de los sistemas no son personas, sino agentes de inteligencia artificial: software autónomo que toma decisiones, ejecuta acciones e interactúa con otros sistemas. En muchos casos, incluso interactúa directamente con otros agentes.

En un mundo de agentes autónomos, autenticar ya no consiste únicamente en validar una clave o un certificado. El riesgo no es solo el robo de credenciales, sino la suplantación del propio agente o la alteración de su lógica de decisión

JUAN PABLO NAVARRO, SOPRA STERIA

Esto nos está forzando a replantear, desde sus cimientos, qué entendemos por identidad y cómo la gobernamos. Pero dejando a un lado las dudas filosóficas de este nuevo entorno, esta transición plantea una pregunta de fondo eminentemente técnica y operativa: ¿cómo gestionamos la identidad cuando el usuario ya no es humano?

Cuando uno es cientos

Tradicionalmente, los sistemas ya convivían con identidades no humanas: cuentas de servicio, procesos batch, integraciones máquina a máquina o claves de API. Sin embargo, estas identidades eran esencialmente pasivas y predecibles. Se les asignaba un conjunto fijo de permisos y su comportamiento estaba estrictamente definido por el código que las invocaba.

Pero los agentes de IA rompen ese modelo. No se limitan a ejecutar instrucciones estáticas, sino que toman decisiones basadas en contexto, interactúan con múltiples sistemas y dominios, encadenan acciones de forma dinámica y ejecutan acciones que tienen impacto real en procesos de negocio. En la práctica, se comportan como usuarios, pero con una velocidad, escala y autonomía que ningún humano puede igualar.

Mientras que las personas siguen procesos formales de alta, modificación y baja de nuevos usuarios, los agentes de IA pueden surgir de múltiples formas: instancias temporales en la nube, agentes embebidos en aplicaciones, herramientas de automatización aumentadas con modelos de lenguaje o asistentes que operan bajo demanda. A diferencia de un empleado, un agente puede crearse dinámicamente, escalar horizontalmente, mutar o desaparecer sin dejar un rastro claro. Esto genera un punto ciego crítico: organizaciones que no saben cuántos agentes autónomos operan en sus entornos, qué capacidades tienen ni a qué recursos acceden. La consecuencia directa es la imposibilidad de aplicar controles efectivos. Como respuesta, empiezan a emerger enfoques basados en el descubrimiento continuo y la observabilidad de identidades no humanas, donde el comportamiento real del agente se convierte en la principal fuente de verdad.

Identidades dinámicas VS. Identidades estáticas

Por otro lado, surge el problema de la autenticación. En un mundo de agentes autónomos, autenticar ya no consiste únicamente en validar una clave o un certificado. El riesgo no es solo el robo de credenciales, sino la suplantación del propio agente o la alteración de su lógica de decisión. El problema ya no es solo verificar una credencial, sino asegurar que el agente es quien dice ser y que no ha sido suplantado, modificado o desviado de su propósito original. Un agente comprometido puede actuar de forma legítima desde el punto de vista técnico y, sin embargo, ejecutar acciones dañinas a gran escala. La solución apunta hacia modelos de identidad efímera y contextual, donde la confianza no se concede de una vez, sino que se reevalúa constantemente en función del entorno, la integridad del runtime y la coherencia del comportamiento observado.

La identidad deja de ser un objeto estático y pasa a ser una propiedad dinámica, evaluada de forma continua.

Los agentes de IA, en cambio, operan en escenarios cambiantes y requieren flexibilidad para cumplir su función. Concederles permisos amplios simplifica el diseño, pero multiplica el riesgo. Aquí aparece una tensión fundamental entre autonomía y control. Las líneas de solución pasan por modelos de autorización adaptativa, donde los privilegios se conceden de forma puntual, limitada y justificada por el contexto inmediato. No se trata solo de preguntar si un agente puede acceder a un recurso, sino si debería hacerlo en ese momento, con qué propósito y con qué nivel de riesgo aceptable.

Control de sistemas no humanos

Quizá el aspecto más crítico es la supervisión y la responsabilidad. Cuando un agente de IA actúa de forma autónoma, cabe preguntarse quién es responsable de sus decisiones y cómo se audita su comportamiento y se detectan desviaciones, abusos o errores sistémicos. Sin mecanismos sólidos de trazabilidad y auditoría, estas preguntas quedan sin respuesta. Supervisar agentes no humanos exige ir más allá del logging tradicional. Es necesario registrar decisiones, intenciones y resultados de forma comprensible, permitiendo reconstruir el razonamiento del agente y detectar desviaciones antes de que se conviertan en incidentes mayores. De forma complementaria, deben existir mecanismos de intervención rápida, capaces de revocar accesos o desactivar agentes en tiempo real.

Sin supervisión efectiva, los agentes se convierten en “cajas negras” con acceso privilegiado, una combinación inaceptable desde el punto de vista de la seguridad y el cumplimiento normativo.

Lo que estamos presenciando no es una evolución incremental, sino el nacimiento de una nueva disciplina: la gestión de identidades para entidades autónomas. Los agentes de IA no encajan ni como usuarios humanos ni como simples cuentas técnicas. Requieren un enfoque propio que combine identidad, seguridad, gobernanza y arquitectura de sistemas distribuidos.

Artículos relacionados