El contrato de 1 dólar que acabó en 200 millones y puso a Anthropic en manos del Pentágono

“IA woke”: así descalifica el secretario de Defensa a Anthropic por negarse a ceder su ética

27 de febrero de 2026 a las 08:05h
El contrato de 1 dólar que acabó en 200 millones y puso a Anthropic en manos del Pentágono
El contrato de 1 dólar que acabó en 200 millones y puso a Anthropic en manos del Pentágono

El reloj avanza. Las 1701 del viernes 27 de febrero marcan una fecha límite inusualmente precisa para una decisión que podría cambiar el equilibrio entre tecnología, ética y poder. El Pentágono ha exigido a Anthropic, la empresa detrás del modelo de inteligencia artificial Claude, que acepte que sus sistemas se utilicen sin restricciones en cualquier operación que el Departamento de Defensa considere necesaria. Sin filtros. Sin salvaguardas. Sin objeción.

Una IA con principios frente al poder del Estado

Anthropic no es como las demás. Desde su creación, ha cimentado su identidad en límites claros. Sus políticas de uso prohíben expresamente el empleo de sus modelos para vigilancia masiva de ciudadanos estadounidenses, el desarrollo de armas o el control autónomo de sistemas bélicos. Una postura ética que hoy choca de frente con los intereses de la mayor maquinaria militar del planeta.

El Pentágono, en cambio, quiere carta blanca. Desea usar la IA de Anthropic para lo que considere oportuno, sin que esos límites internos interfieran. No se trata de una colaboración puntual. Ya hay integración. Los sistemas de Claude se han entrelazado con los de Palantir, la empresa de análisis de datos con fuerte vinculación al espionaje y la defensa. Ya está muy integrada en todos los sistemas, procesos y servicios que el Departamento de Defensa utiliza de forma cotidiana.

Se habla incluso de su uso en operaciones clasificadas según fuentes mencionadas en el contexto, Claude participó en la planificación de la operación para capturar a Nicolás Maduro. Un ejemplo extremo, pero revelador del nivel de confianza que ya ha alcanzado esta tecnología dentro del aparato de seguridad nacional.

Un dólar y doscientos millones de razones para preocuparse

La historia comienza con gesto simbólico. Anthropic ofreció su tecnología al gobierno de Estados Unidos por un dólar. Un acuerdo que, sin embargo, derivó en un contrato de 200.000.000 de dólares. Un trato que va más allá del dinero. Es una alianza estratégica que ya ha calado en la operativa diaria del Pentágono.

Pero también plantea una paradoja una empresa que nació con vocación de construir IA segura, alineada, responsable, se encuentra ahora en el punto de mira de un organismo que podría forzarla a actuar contra sus propios principios. Y todo bajo el amparo legal de una ley de guerra la Defense Production Act, aprobada en 1950 durante la Guerra de Corea.

Esa ley otorga al presidente poderes extraordinarios para asegurar suministros esenciales para la defensa nacional. Puede obligar a empresas privadas a priorizar contratos del Estado, asignar materiales, servicios, instalaciones. En teoría, el Pentágono podría invocar esta ley para hacerse con el control de los modelos de Anthropic, eliminando así la barrera ética que los contiene.

El fantasma de la censura tecnológica

El secretario de Defensa, Pete Hegseth, ha calificado la postura de Anthropic como la de una "IA woke", una etiqueta que trasciende lo técnico y entra en el terreno de la polarización política. La presión no es solo económica o legal. Es también simbólica. Cuestionar la lealtad de una empresa por no ceder a todas las demandas del Estado.

Y hay una amenaza latente si Anthropic no acepta, podría ser identificada como una empresa que pone en riesgo la cadena de suministro del país. Eso significaría que ninguna empresa estadounidense podría colaborar con ella. Un veto interno. Un aislamiento tecnológico similar al que sufrió Huawei hace unos años, pero esta vez dirigido a una compañía nacional.

Google, OpenAI y xAI, por el contrario, permiten al gobierno usar sus modelos en cualquier escenario que el Estado considere legal. La línea roja no está en la ética, sino en la legalidad. Para Anthropic, la diferencia es abismal. No todo lo legal es ético. Y no todo lo permitido debe ser hecho.

El universo como campo de juego

Más allá del campo de batalla, Claude ya ha demostrado su valor en misiones de exploración espacial. La NASA lo ha utilizado para planificar rutas del rover Perseverance en Marte. Una aplicación pacífica, visionaria, que muestra el potencial transformador de estas tecnologías.

Pero el contexto geopolítico ha cambiado. SpaceX, que no es ya solo una empresa de cohetes, se ha convertido en un actor clave en comunicaciones satelitales y envíos al espacio. También posee xAI y, según se menciona, opera con una base de datos masiva de ciudadanos europeos a través de su vinculación con plataformas digitales globales.

En esta nueva carrera espacial, la tecnología no es neutral. Y las alianzas tampoco. Europa, que depende en gran medida de proveedores tecnológicos bajo influencia estadounidense, debe tomar nota confiar en sistemas críticos controlados desde fuera puede volverse una vulnerabilidad estratégica cuando entra en juego la Defense Production Act.

El viernes a las 1701 se sabrá si Anthropic cede. O si resiste. Pero más allá del resultado, la pregunta que queda flotando es esta ¿puede una empresa de IA mantener principios éticos cuando el poder más grande del mundo los considera un obstáculo?

Sobre el autor
Redacción
Ver biografía