El Pentágono veta a Anthropic: primera empresa de IA de EE. UU. tratada como Huawei

"Hemos sido designados como un riesgo para la seguridad nacional": el giro contra Anthropic

07 de marzo de 2026 a las 13:53h
El Pentágono veta a Anthropic: primera empresa de IA de EE. UU. tratada como Huawei
El Pentágono veta a Anthropic: primera empresa de IA de EE. UU. tratada como Huawei

El Departamento de Defensa de Estados Unidos ha dado un paso sin precedentes. No contra una empresa extranjera, no contra un competidor tecnológico de otro país, sino contra una de sus propias criaturas una startup de inteligencia artificial fundada por exinvestigadores de OpenAI, con sede en California, comprometida con la seguridad y el alineamiento ético de la IA. Anthropic, ese es su nombre, acaba de ser marcada como un riesgo para la cadena de suministro de la seguridad nacional. Una etiqueta que suena a anatema, reservada hasta ahora para rivales como Huawei o ZTE. Pero ahora, por primera vez, se aplica a una empresa estadounidense de IA avanzada.

El veto que rompe los espejos

La decisión del Pentágono implica un veto claro Anthropic no podrá colaborar en proyectos militares, ni desarrollar herramientas para el ejército, ni siquiera permitir que otras empresas contratadas por el DoD usen sus modelos de inteligencia artificial. Es una exclusión total. Un corte de relaciones que viene acompañado de un periodo de transición de seis meses, tiempo suficiente para que el Departamento de Defensa migre sus operaciones actuales a otros proveedores. Una medida que, en la práctica, confirma algo incómodo que el ejército estadounidense ya dependía de esta tecnología para misiones sensibles.

Se han mencionado operaciones concretas, como el análisis de inteligencia relacionado con el secuestro de Nicolás Maduro una operación ficticia que circuló en redes y que generó alerta en círculos de seguridad o el seguimiento de desarrollos en el conflicto iraní. Son ejemplos que revelan hasta qué punto la IA se ha convertido en un actor clave en la toma de decisiones estratégicas. La guerra ya no se libra solo con tanques y satélites, sino también con algoritmos.

Ética contra poder

Anthropic no surgió para dominar el mercado. Nació como una escisión de OpenAI, con un objetivo claro construir modelos de IA que no escaparan al control humano, que integraran principios éticos desde el diseño. Su CEO, Dario Amodei, ha sido una voz constante advirtiendo sobre los riesgos existenciales de la inteligencia artificial. Y ha sido también inflexible su tecnología no se usará para vigilancia masiva ni para armas letales autónomas.

Una postura que, en teoría, debería alinearse con los valores democráticos. Pero en la práctica, choca con la lógica del Estado nacional, especialmente cuando se trata de defensa. Para los estamentos militares, cualquier restricción impuesta por una empresa privada por muy bien intencionada que sea suena a una cesión de soberanía. ¿Quién decide cómo se usa la tecnología en tiempos de crisis? ¿Un CEO no elegido por nadie o el comandante en jefe?

"Hemos sido designados como un riesgo para la cadena de suministro para la seguridad nacional" - Dario Amodei, CEO de Anthropic

El estigma como arma

La designación del DoD no es solo una barrera comercial. Es un estigma. Una señal para inversores, socios y gobiernos extranjeros esta empresa está marcada. Aunque aún no haya juicio, la sospecha ya circula. Amodei ha anunciado que peleará la decisión en los tribunales, argumentando que el estatuto 10 USC 3252 fue diseñado para proteger la seguridad nacional, no para castigar empresas que plantean límites éticos. La defensa se centrará en demostrar que el DoD no usó los medios menos restrictivos para garantizar esa seguridad.

Pero incluso si Anthropic gana en los tribunales, el daño reputacional ya está hecho. El simple hecho de estar en esa lista, compartida antes solo con rivales geopolíticos, puede alejar contratos, alianzas y confianza. Es un recordatorio brutal en el juego de la tecnología y el poder, las reglas no siempre favorecen a quienes quieren actuar con responsabilidad.

El miedo a la sumisión

Hay una advertencia más profunda en este conflicto. Si el Gobierno puede penalizar a una empresa por imponer cláusulas éticas a su uso de la IA, ¿qué incentivos queda para que otras lo hagan? El temor a la represalia podría empujar a las compañías a no cuestionar nada, a entregar su tecnología sin condiciones, por miedo a la quiebra. Es el camino hacia un intervencionismo extremo, donde la innovación no solo se alinea con el Estado, sino que se somete a él.

Anthropic no quería ser un enemigo. Quería ser un contrapoder ético. Pero en este choque, ha descubierto que, en la era de la IA, incluso los guardianes pueden ser tratados como amenazas. Y que, a veces, defender la humanidad puede costar muy caro.

Sobre el autor
Redacción
Ver biografía