En la madrugada del 28 de febrero de 2026, Sam Altman anunció en una red social lo que parecía imposible hace apenas una semana OpenAI había firmado un acuerdo con el Departamento de Guerra de Estados Unidos para desplegar sus modelos de inteligencia artificial en redes clasificadas. El anuncio llegó como un terremoto en el ecosistema tecnológico y político. No solo por la magnitud del trato, sino por el momento en que se produjo. Horas antes, el presidente Donald Trump había ordenado cancelar todos los contratos federales con Anthropic, otra empresa de inteligencia artificial, por negarse a ceder el control total de su tecnología para usos militares.
La ruptura con Anthropic
Anthropic, fundada por exmiembros de OpenAI con el propósito explícito de construir una inteligencia artificial más segura y con límites éticos claros, había firmado un contrato de 200 millones de dólares con el Pentágono el verano anterior. Ese acuerdo la convirtió en pionera la primera empresa de IA autorizada a gestionar documentación clasificada. Pero los recelos comenzaron cuando el Departamento de Defensa descubrió que Anthropic no estaba dispuesta a liberar todas las funcionalidades de su herramienta Claude para cualquier uso militar.
La empresa trazó líneas rojas firmes su tecnología no debería emplearse para vigilancia masiva de ciudadanos algo que, por otro lado, está prohibido por la ley ni para gestionar sistemas de armas autónomas sin supervisión humana. Una postura coherente con su filosofía fundacional. Pero para el secretario de Defensa, Pete Hegseth, no había matices. En una reunión con Dario Amodei, CEO de Anthropic, le dio un ultimátum de tres días para reconsiderar su posición. Le advirtió con una amenaza de manual invocaría la Ley de Producción de Defensa de 1950, una herramienta heredada de la Guerra Fría que permite al gobierno tomar el control de tecnologías privadas en nombre de la seguridad nacional.
Además, planteó otra medida punitiva declarar a Anthropic como un riesgo para la cadena de suministro militar, lo que la aislaría de cualquier empresa que colabore con Defensa. A pesar de una oferta posterior del Pentágono que incluía parte del lenguaje de seguridad propuesto por la empresa, Anthropic consideró que no era lo suficientemente vinculante. Temían que, en momentos de crisis, esas restricciones se ignoraran. Su postura no era una negativa a colaborar, sino una exigencia de garantías técnicas y legales sólidas. Pero eso no bastó.
La orden presidencial y el giro de OpenAI
El viernes por la tarde, Trump rompió el silencio con un mensaje en Truth Social que resonó como un trueno "¡LOS ESTADOS UNIDOS DE AMÉRICA JAMÁS PERMITIRÁN QUE UNA EMPRESA RADICAL DE IZQUIERDA Y "WOKE" DECIDA CÓMO NUESTRO GRAN EJÉRCITO LUCHA Y GANA GUERRAS!". El lenguaje era incendiario, pero la orden era clara todas las agencias federales debían dejar de usar tecnología de Anthropic. Se dio un periodo de seis meses para una retirada gradual, pero el mensaje era inequívoco la relación estaba rota.
Horas después, Sam Altman anunciaba el acuerdo con el Departamento de Guerra. Su tono era distinto técnico, mesurado, casi frío. "Esta noche, llegamos a un acuerdo con el Departamento de Guerra (DoW) para desplegar nuestros modelos en su red clasificada". Altman aseguró que el Departamento de Defensa coincidía con los principios de seguridad de OpenAI, especialmente en dos puntos la prohibición de la vigilancia masiva nacional y la necesidad de responsabilidad humana en el uso de la fuerza, incluidos los sistemas de armas autónomas.
Altman afirmó haber encontrado una solución técnica para garantizar que sus modelos no violen estos principios, incluso dentro de un entorno militar. No dio detalles, pero insinuó la implementación de salvaguardas integradas directamente en el código. Un sistema de frenos invisibles pero inquebrantables. Y lanzó una propuesta audaz pidió al gobierno que ofreciera las mismas condiciones a todas las empresas de IA. "En nuestra opinión, todos deberían estar dispuestos a aceptarlas".
La paradoja ética del acceso total
El contraste entre ambas empresas es revelador. Anthropic, nacida como una crítica interna a OpenAI, ahora es castigada por mantener los principios que inspiraron su creación. OpenAI, acusada en el pasado de priorizar el crecimiento sobre la seguridad, aparece ahora como la que ha logrado conciliar colaboración con responsabilidad. Pero la pregunta persiste ¿cómo puede garantizarse que un modelo con acceso total a sistemas militares no sea usado en operaciones que contradigan esos principios?
Pete Hegseth no duda. En una publicación del 27 de febrero, afirmó "Nuestra posición nunca ha vacilado y nunca vacilará el Departamento de Guerra debe tener acceso completo y sin restricciones a los modelos de Anthropic para cualquier propósito LEGAL en defensa de la República". Y acusó a Amodei de "duplicidad", de esconderse tras la "retórica santurrona del altruismo efectivo" para ejercer un veto sobre las decisiones militares. Según Hegseth, el verdadero objetivo de Anthropic era "apoderarse del poder de veto sobre las decisiones operativas del ejército estadounidense".
Es una acusación grave. Pero también plantea una paradoja si el gobierno exige acceso total, ¿dónde queda el control ético? Hegseth compara a los fabricantes de IA con los de misiles "No deciden cuándo ni contra quién se disparan los misiles que venden". Es un argumento poderoso, pero ignora una diferencia clave un misil es un arma; un modelo de IA es un cerebro. Puede redactar órdenes, analizar datos, recomendar blancos, incluso automatizar decisiones. La línea entre herramienta y actor se vuelve borrosa.
El contexto de una guerra inminente
La tensión no ocurrió en el vacío. Horas después de que Trump ordenara romper los contratos con Anthropic, anunció una operación militar "masiva" contra Irán, con el objetivo de impedir que Teherán acceda a armas nucleares. El mundo contuvo el aliento. Y en ese contexto, la negativa de una empresa de IA a ceder su tecnología adquirió una dimensión dramática. El debate sobre los límites de la inteligencia artificial dejó de ser abstracto ahora afecta a decisiones de vida o muerte en tiempo real.
Anthropic respondió con firmeza "Ninguna intimidación ni castigo por parte del Departamento de Guerra cambiará nuestra postura". Una declaración que suena a principios, pero también a aislamiento. Mientras, OpenAI se posiciona como el socio tecnológico del futuro militar estadounidense. Altman, que semanas antes había respaldado públicamente la postura de Anthropic, ahora ha dado un giro. ¿Conveniencia? ¿Realismo? ¿O una estrategia para liderar el desarrollo de IA con cierto control sobre su uso?
Lo cierto es que el campo de batalla ya no es solo físico. Es algorítmico. Y en esta guerra de tecnologías, éticas y poder, las empresas de IA ya no son simples proveedoras. Son actores clave. Y su silencio o su resistencia pueden cambiar el curso de una nación.