Hasta las 17:01 del viernes: el ultimátum del Pentágono para controlar la IA de Anthropic

Claude ayudó a capturar a Maduro: así nació el choque entre Anthropic y el Pentágono

27 de febrero de 2026 a las 06:50h
Hasta las 17:01 del viernes: el ultimátum del Pentágono para controlar la IA de Anthropic
Hasta las 17:01 del viernes: el ultimátum del Pentágono para controlar la IA de Anthropic

El Pentágono tiene una cita con el reloj. Hasta este viernes a las 1701, Anthropic tiene una última oportunidad para aceptar que sus modelos de inteligencia artificial se usen sin restricciones en cualquier operación militar o de espionaje. Si no lo hace, el gobierno de Estados Unidos no dudará en arrancarle la tecnología por la fuerza. No es ficción. Es el pulso más intenso que se ha visto entre una empresa privada de IA y el aparato de defensa más poderoso del mundo.

El modelo que atrapó a un presidente

Hace apenas unos meses, en enero, las fuerzas especiales de Estados Unidos llevaron a cabo una operación de alto riesgo. Su objetivo capturar al expresidente venezolano Nicolás Maduro. Lo que no se supo entonces fue que tras la operación había un modelo de inteligencia artificial. No cualquiera. Era Claude, el sistema desarrollado por Anthropic. El modelo ayudó a analizar comunicaciones, predecir movimientos y coordinar logística en tiempo real. Fue un éxito operativo. Pero también el principio de un conflicto que ahora amenaza con explotar.

Anthropic es hoy la única empresa de inteligencia artificial que opera dentro de los sistemas clasificados del Pentágono. Una posición privilegiada, conseguida tras años de trabajo de confianza. Pero también una trampa. Porque ahora que el gobierno quiere usar esa tecnología para vigilancia masiva o armas autónomas, la empresa ha dicho basta.

El dilema ético de la IA en la guerra

Dario Amodei, fundador y líder de Anthropic, ha sido claro sus modelos no deben usarse para vigilar ciudadanos estadounidenses ni para crear armas letales autónomas. No es una postura neutral. Es una línea roja. La empresa defiende que apoya la seguridad nacional, pero solo dentro de límites que considere responsables y fiables. Un matiz que para muchos en el Pentágono suena a lujo inaceptable.

El Departamento de Defensa argumenta que mientras algo sea legal bajo la Constitución y las leyes de Estados Unidos, ninguna empresa privada debería tener voz para vetar su uso. Para ellos, el control debe estar en manos del Estado, no de los desarrolladores. Es una visión de soberanía tecnológica militar que choca frontalmente con la idea de que las empresas tienen responsabilidad ética sobre sus creaciones.

Y hay dinero de por medio. En junio de 2025, Anthropic lanzó Claude Gov, una versión especializada de su IA para agencias gubernamentales. Lo hizo por un dólar simbólico. El precio era irrelevante. Lo importante era asegurar el acceso. Poco después, el DoD firmó un contrato de 200 millones de dólares. Amazon y Google, inversores clave de la empresa, también estaban contentos. Hasta que llegó la exigencia de uso ilimitado.

La amenaza de una ley de guerra fría

El gobierno de Trump, tras recuperar el poder, ha cambiado radicalmente el enfoque ético de la IA. Mientras la administración Biden impulsó límites, ahora se prioriza la capacidad operativa por encima de todo. Y si Anthropic no cede, hay una carta de emergencia sobre la mesa el Título 1 de la Defense Production Act de 1950.

Es una ley de tiempos de guerra. Fue usada durante la pandemia para forzar la producción de vacunas. También en la Guerra de Corea para controlar la industria estratégica. Hoy, podría usarse para apropiarse de la propiedad intelectual de Anthropic bajo el argumento de emergencia nacional. Sin negociación. Sin veto. Solo el Estado y su necesidad.

El impacto sería enorme. No solo para Anthropic, sino para todo el ecosistema tecnológico estadounidense. Si el gobierno puede intervenir una empresa nacional como si fuera un enemigo extranjero, nadie estará a salvo. Sería como el veto a Huawei, pero aplicado desde dentro.

El tablero de jugadas del Pentágono

El Pentágono no está solo en este juego. Tiene alternativas. Ya sabe que xAI la empresa detrás de Grok ha firmado un acuerdo para que su modelo sea usado en sistemas clasificados. Google también está en conversaciones avanzadas. Y si Anthropic sigue negándose, el contrato de 200 millones podría desaparecer en cuestión de días.

  • Cancelar el contrato y buscar socios sin escrúpulos éticos.
  • Etiquetar a Anthropic como un riesgo para la cadena de suministro, bloqueando su acceso al mercado nacional.
  • Invocar la Defense Production Act y tomar el control directo de sus modelos.

Cada opción tiene consecuencias. Pero la más profunda no es económica. Es política. Es filosófica. ¿Quién decide cómo se usa la inteligencia artificial en tiempos de conflicto? ¿El que la crea o el que la financia?

El precedente que podría cambiarlo todo

Si el Pentágono gana esta batalla, se abrirá una puerta que quizás no se pueda cerrar. Cualquier empresa de tecnología podría verse obligada a ceder el control de sus desarrollos bajo la amenaza de una ley de 1950. Y los inversores Amazon, Google, otros gigantes tendrán que preguntarse si sus apuestas en IA valen la pena si el Estado puede confiscarlas mañana.

Este no es solo un conflicto entre un contratista y el DoD. Es una batalla por el alma de la innovación tecnológica en democracia. Porque si la defensa nacional puede anular la ética de diseño, entonces cualquier sistema de IA podría usarse para cualquier fin. Incluso los que hoy consideramos inaceptables.

Las 1701 del viernes no marcarán solo un plazo. Podrían marcar el momento en que Estados Unidos decidió si controla la IA… o si la IA, a través del poder militar, comienza a controlar a Estados Unidos.

Sobre el autor
Redacción
Ver biografía