Preguntas frecuentes (FAQ)
1. ¿Qué implica el acuerdo entre OpenAI y el DOW?
Permite el uso de modelos como ChatGPT en operaciones gubernamentales y militares, bajo el criterio de legalidad establecido por la administración estadounidense.
2. ¿Por qué se rompió la relación entre Anthropic y el DOW?
Anthropic se negó a conceder acceso irrestricto a Claude para usos potencialmente relacionados con violencia, armamento o vigilancia, alegando violación de sus términos.
3. ¿Qué preocupa a los críticos del acuerdo?
Principalmente la posibilidad de vigilancia masiva, el desarrollo o control de armas autónomas y la ambigüedad del término “legal” como única restricción operativa.
4. ¿Cómo han reaccionado los usuarios?
Con un fuerte aumento de desinstalaciones de ChatGPT en EE. UU. y un incremento simultáneo de descargas de Claude.
5. ¿Ha modificado OpenAI el contrato tras las críticas?
Sí, ha añadido cláusulas sobre vigilancia doméstica, aunque siguen basadas en la interpretación legal vigente, lo que para muchos no resuelve las preocupaciones éticas de fondo.
La decisión de OpenAI de colaborar con el Departamento de Guerra de Estados Unidos (DOW) ha desencadenado una tormenta reputacional que la compañía intenta contener. El CEO, Sam Altman, reconoció en un memorando interno —posteriormente publicado en X— que el acuerdo “parecía oportunista y descuidado” y que la comunicación fue precipitada.
“No deberíamos habernos apresurado a sacar esto el viernes”, escribió Altman, admitiendo que la complejidad ética del asunto requería mayor claridad.
Índice de temas
Ruptura con Anthropic y presión política desde Washington
El movimiento de OpenAI se produjo tras la ruptura entre el DOW y Anthropic, desarrolladora del modelo Claude. El conflicto se originó cuando el ejército estadounidense utilizó Claude durante la extracción del presidente venezolano Nicolás Maduro en enero, un uso que, según Anthropic, vulneraba sus términos de servicio al involucrar potencialmente violencia, desarrollo de armas o vigilancia.
El DOW, dirigido por el excomentarista de Fox News Pete Hegseth, exigió acceso total y sin restricciones a los modelos de Anthropic para “todo propósito legal”. La empresa se negó, lo que desencadenó una escalada pública en la que Hegseth acusó a Anthropic de “arrogancia y traición”.
Horas antes de los ataques de Estados Unidos e Israel contra Irán, el presidente Donald Trump ordenó a las agencias federales dejar de utilizar Claude, calificando a Anthropic de “empresa de IA de la izquierda radical”. Sin embargo, según informó The Wall Street Journal, Claude habría sido utilizado igualmente en las operaciones, lo que sugiere un grado de integración más profundo en la infraestructura militar. En ese vacío contractual es donde OpenAI decidió intervenir.
Reacción del mercado: desplome reputacional y fuga de usuarios
La respuesta de los usuarios fue inmediata. Las desinstalaciones de la aplicación móvil de ChatGPT en EE. UU. aumentaron un 295% el sábado 28 de febrero, frente a una tasa habitual cercana al 9%. En paralelo, las descargas de Claude crecieron un 37% el viernes y un 51% el sábado, alcanzando el primer puesto en el ranking de apps gratuitas del App Store de Apple.
El contrato defendido por Altman incluye salvaguardas adicionales respecto al acuerdo previo con Anthropic, pero los extractos difundidos por la propia OpenAI permiten el uso de sistemas de IA para vigilancia masiva y armamento controlado por IA siempre que sea “legal”, un término cuya interpretación depende de la administración en turno.
Las enmiendas posteriores añaden que, “conforme a las leyes aplicables”, el sistema no debe utilizarse “intencionadamente” para vigilancia doméstica de ciudadanos estadounidenses. Sin embargo, el uso de términos como “intencionadamente” o “deliberada” ha sido criticado por juristas y expertos en ética tecnológica, que advierten de posibles lagunas en escenarios de automatización avanzada o armas autónomas.
Altman, en su intento de reconducir la narrativa, sostuvo que corresponde al gobierno tomar “las decisiones clave sobre la sociedad” y que OpenAI busca “tener voz y un lugar en la mesa” para defender principios de libertad. La declaración, lejos de calmar las críticas, ha reavivado el debate sobre a quién protege realmente esa libertad cuando la IA se integra en estructuras militares.








