NOTICIAS

OpenAI afronta una ola de críticas tras su acuerdo con el Departamento de Guerra de EEUU



Dirección copiada

Sam Altman admite que el anuncio fue “oportunista y descuidado” mientras aumentan un 295% las desinstalaciones de ChatGPT en EEUU y crecen las dudas sobre vigilancia y armamento con IA

Publicado el 3 mar 2026



guerra

La decisión de OpenAI de colaborar con el Departamento de Guerra de Estados Unidos (DOW) ha desencadenado una tormenta reputacional que la compañía intenta contener. El CEO, Sam Altman, reconoció en un memorando interno —posteriormente publicado en X— que el acuerdo “parecía oportunista y descuidado” y que la comunicación fue precipitada.

“No deberíamos habernos apresurado a sacar esto el viernes”, escribió Altman, admitiendo que la complejidad ética del asunto requería mayor claridad.

Ruptura con Anthropic y presión política desde Washington

El movimiento de OpenAI se produjo tras la ruptura entre el DOW y Anthropic, desarrolladora del modelo Claude. El conflicto se originó cuando el ejército estadounidense utilizó Claude durante la extracción del presidente venezolano Nicolás Maduro en enero, un uso que, según Anthropic, vulneraba sus términos de servicio al involucrar potencialmente violencia, desarrollo de armas o vigilancia.

El DOW, dirigido por el excomentarista de Fox News Pete Hegseth, exigió acceso total y sin restricciones a los modelos de Anthropic para “todo propósito legal”. La empresa se negó, lo que desencadenó una escalada pública en la que Hegseth acusó a Anthropic de “arrogancia y traición”.

Horas antes de los ataques de Estados Unidos e Israel contra Irán, el presidente Donald Trump ordenó a las agencias federales dejar de utilizar Claude, calificando a Anthropic de “empresa de IA de la izquierda radical”. Sin embargo, según informó The Wall Street Journal, Claude habría sido utilizado igualmente en las operaciones, lo que sugiere un grado de integración más profundo en la infraestructura militar. En ese vacío contractual es donde OpenAI decidió intervenir.

Reacción del mercado: desplome reputacional y fuga de usuarios

La respuesta de los usuarios fue inmediata. Las desinstalaciones de la aplicación móvil de ChatGPT en EE. UU. aumentaron un 295% el sábado 28 de febrero, frente a una tasa habitual cercana al 9%. En paralelo, las descargas de Claude crecieron un 37% el viernes y un 51% el sábado, alcanzando el primer puesto en el ranking de apps gratuitas del App Store de Apple.

El contrato defendido por Altman incluye salvaguardas adicionales respecto al acuerdo previo con Anthropic, pero los extractos difundidos por la propia OpenAI permiten el uso de sistemas de IA para vigilancia masiva y armamento controlado por IA siempre que sea “legal”, un término cuya interpretación depende de la administración en turno.

Las enmiendas posteriores añaden que, “conforme a las leyes aplicables”, el sistema no debe utilizarse “intencionadamente” para vigilancia doméstica de ciudadanos estadounidenses. Sin embargo, el uso de términos como “intencionadamente” o “deliberada” ha sido criticado por juristas y expertos en ética tecnológica, que advierten de posibles lagunas en escenarios de automatización avanzada o armas autónomas.

Altman, en su intento de reconducir la narrativa, sostuvo que corresponde al gobierno tomar “las decisiones clave sobre la sociedad” y que OpenAI busca “tener voz y un lugar en la mesa” para defender principios de libertad. La declaración, lejos de calmar las críticas, ha reavivado el debate sobre a quién protege realmente esa libertad cuando la IA se integra en estructuras militares.

Artículos relacionados