Trump cancela un contrato de 200 millones con Anthropic por limitar el uso militar de su IA

Anthropic, la empresa de IA con sede en San Francisco, ha puesto un límite donde otras podrían haber cedido. Su herramienta estrella, Claude, fue diseñada con salvaguardas éticas no se permite su uso para vigilancia masiva de ciudadanos.

01 de marzo de 2026 a las 12:35h
Trump cancela un contrato de 200 millones con Anthropic por limitar el uso militar de su IA
Trump cancela un contrato de 200 millones con Anthropic por limitar el uso militar de su IA

El pulso entre el poder político y la tecnología alcanza un nuevo nivel de tensión en Washington. Un enfrentamiento inédito sacude los cimientos de la relación entre el Estado y las grandes empresas de inteligencia artificial. En el centro, una orden presidencial que suena a ultimátum todos los contratos federales con Anthropic, cancelados. La decisión, anunciada por Donald Trump en su red social Truth, no responde a fallos técnicos ni a incumplimientos contractuales. Se trata de una batalla de principios, de poder, y sobre todo, de quién decide cómo se usa la inteligencia artificial en tiempos de guerra.

Una IA que dice no

Anthropic, la empresa de IA con sede en San Francisco, ha puesto un límite donde otras podrían haber cedido. Su herramienta estrella, Claude, fue diseñada con salvaguardas éticas no se permite su uso para vigilancia masiva de ciudadanos ni para ataques letales autónomos sin intervención humana. Estas restricciones, inocuas sobre el papel, se convirtieron en un escollo insalvable para el Pentágono. El gobierno estadounidense, bajo la nueva denominación interna de "Departamento de Guerra", exige acceso sin límites a todas las funcionalidades de la IA para fines militares. Y cuando Anthropic dijo que no, el conflicto estalló.

El contrato firmado en julio, valorado en 200 millones de dólares, fue pionero el primer acuerdo del Departamento de Defensa para usar inteligencia artificial en entornos con acceso a información clasificada. La tecnología de Claude se empleaba en la gestión de archivos militares en la nube, con altos estándares de seguridad. Pero ese vínculo, que parecía simbólico de una alianza tecnológica estratégica, ahora se deshace en medio de acusaciones cruzadas y un clima de confrontación sin precedentes.

El ultimátum del Pentágono

La reunión clave tuvo lugar el martes en las instalaciones del Pentágono. Pete Hegseth, secretario de Defensa, se reunió con Dario Amodei, consejero delegado de Anthropic. Le dio un plazo hasta el viernes para reconsiderar su postura. El mensaje fue claro. El jueves, el Pentágono envió un nuevo contrato con condiciones ajustadas. Anthropic lo rechazó. Las garantías sobre el uso militar no eran suficientes. La línea roja de la empresa no era negociable no permitirán que su tecnología impulse operaciones que puedan vulnerar derechos fundamentales.

En respuesta, Hegseth amenaza con sanciones extraordinarias. Podría declarar a Anthropic "un riesgo para la cadena de suministro militar", lo que aislaría a la empresa de cualquier colaboración con contratistas del sector. Incluso se baraja intervenirla bajo la Ley de Producción de Defensa de 1950, una herramienta de guerra fría pensada para asegurar recursos estratégicos en tiempos de crisis.

El dilema ético y el miedo a la narrativa

El conflicto se alimenta de narrativas enfrentadas. Trump acusa a los ejecutivos de Anthropic de ser "izquierdistas desquiciados" que quieren imponer su visión política al ejército más poderoso del mundo. Para la administración, esta negativa no es ética, es ideológica. Y pone en riesgo la capacidad de Estados Unidos para actuar con rapidez y decisión en escenarios de conflicto extremo.

El subsecretario de Defensa para Investigación e Ingeniería, Emil Michael, fue más allá. En una conversación filtrada y replicada en redes, acusó a Amodei de querer "controlar personalmente al ejército de Estados Unidos". También lanzó un argumento escalofriante ¿y si un ataque nuclear da solo 90 segundos de advertencia? En ese caso, afirmó, cualquier retraso por debates éticos podría costar millones de vidas.

Pero Anthropic sostiene que ya hizo concesiones. En escenarios de defensa antimisiles o ciberataques, su tecnología puede usarse sin restricciones. El problema no es la guerra, sino la automatización de decisiones letales sin supervisión humana. Y una filtración reciente, publicada por The Wall Street Journal, encendió todas las alarmas un empleado de Anthropic preguntó a un representante de Palantir si Claude había sido usado en una operación militar para detener a Nicolás Maduro en Caracas. Esa duda, real o no, puso en evidencia los límites del control.

La guerra por la narrativa

Sean Parnell, portavoz del Pentágono, intentó desactivar la polémica en redes sociales. "El Departamento de Guerra no tiene ningún interés en usar IA para la vigilancia masiva de estadounidenses, ni queremos usar IA para desarrollar armas autónomas que funcionen sin intervención humana. Esta narrativa es falsa y la difunden izquierdistas en los medios".

Sin embargo, su siguiente mensaje revela el verdadero fondo del asunto: "Esto es lo que pedimos permitir que el Pentágono utilice el modelo de Anthropic para todos los fines legales. Esta es una solicitud sencilla y sensata".

"Las amenazas no cambian nuestra posición no podemos en conciencia acceder a su petición" - Dario Amodei, consejero delegado de Anthropic

La frase de Amodei no es solo una declaración corporativa. Es un manifiesto. Ante uno de los aparatos militares más poderosos del planeta, una empresa de tecnología se niega a doblar la rodilla. Y lo hace invocando la conciencia, no la política.

El futuro de la IA en manos de quién

Este enfrentamiento no es solo sobre Anthropic. Es un parteaguas. Otros gigantes como xAi, de Elon Musk, ya tienen permiso para operar con documentos clasificados. OpenAI y Google presionan para entrar en el círculo dorado de los contratistas militares. Pero Anthropic es la primera en decir que no, en poner freno, en recordar que la tecnología no es neutral si quien la controla decide qué usos son aceptables.

La pregunta que queda flotando es simple, pero profunda ¿quién debe tener la última palabra sobre cómo se usa la inteligencia artificial en asuntos de vida o muerte? ¿El gobierno que defiende la seguridad nacional? ¿O la empresa que diseña la herramienta y asume la responsabilidad ética? En este pulso, no hay respuestas fáciles, pero el rumbo que se tome marcará el futuro de la tecnología, la democracia y el poder en el siglo XXI.

Sobre el autor
Redacción
Ver biografía