Un dólar, 200 millones y un ultimátum del Pentágono: así se ató Claude a la guerra

"Estamos del lado de la defensa, pero no a cualquier precio": la línea roja de Anthropic

03 de marzo de 2026 a las 14:57h
Un dólar, 200 millones y un ultimátum del Pentágono: así se ató Claude a la guerra
Un dólar, 200 millones y un ultimátum del Pentágono: así se ató Claude a la guerra

El viernes pasado, mientras el reloj marcaba las 1701, una empresa de inteligencia artificial en California tomó una decisión que resonó en los despachos más secretos de Washington. Anthropic, la compañía detrás de Claude, había recibido un ultimátum del Departamento de Guerra entreguen su IA sin restricciones o enfrenten consecuencias. La amenaza no era retórica. Se invocó la Ley de Producción de Defensa de 1950, un instrumento de guerra fría que permite al gobierno apropiarse de tecnologías estratégicas. Y se habló de poner a Anthropic en una lista negra. De hacerles un Huawei.

Un dólar y 200 millones de implicaciones

Todo comenzó con un trato aparentemente simbólico Anthropic ofreció su tecnología al Pentágono por un dólar. Un gesto de cooperación cívica que, en la práctica, se tradujo en un contrato de 200 millones de dólares. La IA se integró profundamente en los sistemas de defensa, en particular con el software de Palantir, una plataforma clave para el análisis de datos en tiempo real. Claude no era solo una herramienta. Se convirtió en un aliado operativo.

De hecho, se afirma que su apoyo fue tan crítico en el análisis de grandes volúmenes de información que se le atribuye un papel clave en operaciones de alto riesgo. Hace unos meses, durante la captura de Nicolás Maduro, las capacidades de Claude para cruzar datos, detectar patrones y prever movimientos habrían sido determinantes. No se trataba de ciencia ficción. Era inteligencia artificial en acción, en el terreno.

Las líneas rojas que no se cruzaron

Pero Anthropic colocó límites. Dos, específicamente su IA no se usaría para espiar masivamente a ciudadanos estadounidenses, ni para desarrollar o controlar armas autónomas. No era una negativa absoluta a colaborar. Al contrario. En un comunicado, Dario Amodei, CEO de la compañía, dejó claro que estaban "del lado de los intereses de defensa del país, pero no a cualquier precio".

Una postura ética que no sentó bien en ciertos sectores del gobierno. El secretario de Defensa Pete Hegseth calificó a Claude como una "IA Woke". Donald Trump, desde su plataforma Truth Social, no fue más sutil "una empresa de inteligencia artificial de izquierda radical dirigida por personas que no tienen ni idea de cómo va el mundo real". Y emitió una orden presidencial "Estoy ordenando a TODAS las agencias federales de Estados Unidos que CESEN INMEDIATAMENTE todo el uso de la tecnología de Anthropic. ¡No lo necesitamos, no lo queremos y no volveremos a hacer negocios con ellos!".

La prohibición que no lo fue

Salvo que sí lo siguen usando. A pesar de la orden, el ataque aéreo conjunto de Israel y Estados Unidos contra Irán el 28 de febrero contó con el respaldo técnico de las mismas herramientas que supuestamente estaban vetadas. Según informó The Wall Street Journal, comandos en todo el mundo, incluido el Comando Central en Oriente Medio, utilizaron las capacidades de Claude para evaluar la situación, identificar objetivos y simular escenarios de batalla.

La razón es sencilla Claude está demasiado integrado, demasiado dentro del sistema. Su relación con Palantir es casi simbiótica. Deshacer esa conexión no es cuestión de apretar un botón. Se estima que llevará seis meses, al menos, eliminar por completo su rastro del software del Pentágono. Mientras tanto, la lógica militar prevalece si ya lo tienes y funciona, lo usas. Hasta que haya un reemplazo.

El relevo de OpenAI y el dilema ético

Y ese reemplazo podría estar a la vuelta de la esquina. OpenAI, desarrolladora de ChatGPT, ha emitido un comunicado en el que subraya que "Estados Unidos necesita modelos de IA para apoyar su misión, especialmente frente a las crecientes amenazas de adversarios potenciales que están integrando cada vez más las tecnologías de inteligencia artificial en sus sistemas".

La empresa también defiende líneas rojas no vigilancia masiva, no control de armas autónomas, no decisiones automatizadas de alto riesgo. Pero hay una diferencia sutil y crucial. Mientras Anthropic se negó a ceder plenos poderes, OpenAI señala que su tecnología puede usarse según el marco legal que el Departamento de Defensa considere válido. Los principios son los mismos. La interpretación, distinta.

Es un matiz que puede marcar la historia. La inteligencia artificial ya no es un futuro lejano. Está en los aviones no tripulados, en los centros de mando, en las decisiones que definen el equilibrio de poder global. Y ahora, también en el debate sobre hasta dónde debe llegar la ética cuando está en juego la seguridad nacional. El dilema no es técnico. Es humano.

Sobre el autor
Redacción
Ver biografía