Trump veta a Claude, el único modelo de IA autorizado en misiones militares clasificadas

"Una empresa privada no debe decir a los militares cómo combatir" vs la ética de Anthropic

04 de marzo de 2026 a las 11:58h
Trump veta a Claude, el único modelo de IA autorizado en misiones militares clasificadas
Trump veta a Claude, el único modelo de IA autorizado en misiones militares clasificadas

El mundo de la inteligencia artificial no se mueve solo en laboratorios ni en presentaciones de productos. A veces, estalla en forma de órdenes presidenciales, vetos militares y decisiones que definen el rumbo ético de una tecnología que ya no es futurista, sino operativa. Y en los últimos días, ese mundo ha dado un giro abrupto en Washington.

Un veto con olor a guerra

El presidente de Estados Unidos, Donald Trump, ha ordenado a todas las agencias federales que dejen de usar los productos desarrollados por Anthropic, la empresa detrás de Claude, uno de los modelos de inteligencia artificial más avanzados del planeta. La medida no es simbólica. Es un corte de suministro total, con consecuencias reales en operaciones militares, logística y estrategia. Claude, según expertos citados en fuentes oficiales, es el mejor modelo disponible para uso militar y el único autorizado en misiones clasificadas como la operación que buscó la captura del presidente venezolano Nicolás Maduro.

La decisión presidencial llega tras un enfrentamiento directo entre la Casa Blanca y la compañía californiana. Anthropic había puesto condiciones claras exige garantías de que su tecnología no se usará para vigilar masivamente a ciudadanos estadounidenses ni como parte de sistemas de armas autónomas sin supervisión humana. Para la empresa, estos límites no son negociables. Para Trump, son inaceptables.

"Una empresa privada no debe decir a los militares cómo combatir ni cómo ganar guerras" - Donald Trump, presidente de Estados Unidos

El Pentágono contra los éticos

El rechazo del Gobierno no se quedó en palabras. El Pentágono ha amenazado con calificar a Anthropic como una amenaza para la cadena de suministro nacional. Esta etiqueta es extremadamente grave hasta ahora, solo se ha aplicado a empresas extranjeras como Huawei, ZTE o Kaspersky, acusadas de servir a intereses de espionaje estatal. Aplicarla a una compañía estadounidense fundada por exinvestigadores de OpenAI sería un precedente sin vuelta atrás.

La medida no solo afectaría a su relación con el Estado, sino también a cualquier empresa privada que trabaje con el sector público. En juego no están solo principios hay al menos 200 millones de dólares en contratos pendientes. Pero por encima de los números, esta crisis revela hasta qué punto la inteligencia artificial ya está integrada en operaciones militares reales, a pesar de que apenas estamos en los primeros compases de su desarrollo.

De hecho, apenas horas después de anunciar el rompimiento con Anthropic, la Casa Blanca lanzó una operación militar contra objetivos en Irán. Según fuentes de inteligencia, esa operación se planificó y ejecutó con herramientas de IA similares a las de Claude. La ironía no pasa desapercibida se prohíbe el uso de una tecnología por cuestiones éticas, pero se sigue empleando su esencia con otras marcas.

La ética como obstáculo político

El pulso entre el Gobierno y Anthropic no es solo técnico ni estratégico. Es profundamente personal. Dario Amodei, fundador y director de la compañía, apoyó públicamente a Kamala Harris durante la campaña electoral de 2024. Se ha posicionado a favor de una regulación rigurosa de la IA, con salvaguardas claras frente al abuso de poder. Trump, en cambio, ha tachado a Anthropic de ser una empresa de izquierda radical, woke, y ha vinculado sus reservas éticas a una supuesta traición al país.

Este choque de visiones no es nuevo, pero ahora tiene consecuencias tangibles. Mientras Anthropic insiste en que su tecnología no debe usarse para construir máquinas de guerra autónomas ni para espiar a millones de personas sin control, OpenAI empresa de la que proceden muchos de sus fundadores ha firmado un acuerdo con el Departamento de Guerra para ceder todas las capacidades de su sistema bajo cualquier uso legal. Sam Altman, consejero delegado de OpenAI, es un conocido donante de causas trumpistas. La coincidencia no es menor en este juego, los alineamientos políticos pesan tanto como los algoritmos.

El futuro no es neutral

Anthropic nació con una identidad clara seguridad, transparencia, ética. Sus fundadores abandonaron OpenAI porque temían que la carrera por el poder computacional dejara atrás las preocupaciones sobre el control real de la IA. Ahora, esa apuesta parece haberles costado cara. Han perdido una batalla clave. Pero el debate que han abierto sigue vivo.

El verdadero conflicto no es entre una empresa y un presidente. Es entre dos modelos de futuro. Uno en el que las empresas tecnológicas imponen límites morales al poder estatal. Y otro en el que el Estado, bajo la presión de la seguridad nacional, anula esos límites sin rendir cuentas. Las reticencias de Anthropic no son muy distintas a las que levanta el uso de IA en regímenes autoritarios vigilancia masiva, toma de decisiones opaca, despliegue autónomo de fuerza letal.

Este episodio no deja indiferente a ningún aliado de Estados Unidos. Países de la Unión Europea, socios en defensa y naciones que miran al modelo estadounidense como referencia en gobernanza tecnológica ahora se preguntan si ese modelo sigue siendo confiable. De cómo se resuelvan estos dilemas éticos dependerá no solo el uso de la IA en la guerra, sino la confianza en los sistemas democráticos frente al poder sin freno.

La inteligencia artificial no es neutral. Y este enfrentamiento lo demuestra detrás de cada línea de código, hay decisiones humanas. Y detrás de cada veto, una visión del mundo.

Sobre el autor
Redacción
Ver biografía