Trump veta a Anthropic y la declara 'riesgo nacional' por negarse a usar IA en armas autónomas

"La IA, ahora, no es solo tecnología. Es recurso estratégico": cuando el código se vuelve munición

07 de marzo de 2026 a las 18:39h
Trump veta a Anthropic y la declara 'riesgo nacional' por negarse a usar IA en armas autónomas
Trump veta a Anthropic y la declara 'riesgo nacional' por negarse a usar IA en armas autónomas

En enero de 2026, el Secretario de Guerra de Estados Unidos, Pete Hegseth, emitió una orden que resonó como un ultimátum cualquier empresa que desarrolle inteligencia artificial y quiera mantener contratos con el gobierno debe permitir que su tecnología se use "sin restricciones". No hubo matices. No hubo espacio para objeciones éticas. Solo una línea clara o cooperas sin condiciones, o quedas fuera. Y si te resistes, no solo pierdes contratos; te conviertes en un riesgo para la seguridad nacional.

El choque entre ética y poder

El primer gran enfrentamiento llegó con Anthropic, la empresa fundada por Dario Amodei, exlíder de investigación en OpenAI. Desde su creación, Anthropic se presentó como una isla de responsabilidad en el turbulento océano de la IA. Su modelo, Claude, fue diseñado bajo principios explícitos no participaría en vigilancia masiva interna ni en sistemas de armas autónomas. Dos líneas rojas. Claras, firmes, anunciadas públicamente.

El gobierno estadounidense no las consideró líneas, sino obstáculos. Exigió su eliminación. Amodei se negó. Y entonces sucedió algo sin precedentes el Departamento de Guerra declaró a Anthropic "empresa de riesgo" para la seguridad nacional. Una etiqueta antes reservada para gigantes como Huawei, acusados de servir a potencias rivales. No porque hubiera espionaje, ni filtración de datos. Sino por negarse a ceder ante una exigencia ética.

El presidente Donald Trump ordenó a todas las agencias federales dejar de usar productos de Anthropic. El Pentágono extendió la prohibición a sus contratistas si trabajas con nosotros, no puedes trabajar con ellos. Y como si eso no fuera suficiente, se activó la amenaza de la Ley de Producción de Defensa, una norma de emergencia de la Guerra Fría que permite al presidente forzar a cualquier compañía a producir lo que el Estado considere necesario para su defensa. La IA, ahora, no es solo tecnología. Es recurso estratégico. Y quien no se alinee, es enemigo.

El colapso de las promesas éticas

Lo irónico es que Anthropic no era una empresa pacifista. Su director ejecutivo, Dario Amodei, había defendido en la Cumbre de IA de París en 2025 la necesidad de que Estados Unidos tomara la delantera en IA militar para contrarrestar el avance de regímenes autoritarios. Sus modelos ya se usaban en agencias de inteligencia. Incluso participaron, a través de una colaboración con Palantir, en una operación encubierta contra Nicolás Maduro. La ética nunca fue una negación total del uso militar, sino un intento de poner frenos.

Pero esos frenos ya no resisten. La misma semana en que fue vetada, Anthropic anunció que abandonaba uno de los pilares de su política de seguridad el compromiso de no entrenar nunca un sistema de IA sin garantizar antes que sus medidas de control eran efectivas. Ahora, según la empresa, se centrará en informes de riesgo posteriores al despliegue. No más garantías previas. Solo promesas posteriores.

Este giro alimenta una sospecha creciente que las líneas rojas éticas nunca fueron más que una estrategia de imagen. Un ejercicio de "ethics washing", donde las promesas morales sirven para atraer inversores, tranquilizar reguladores y diferenciarse en el mercado. Límites lo bastante duros para parecer valientes, lo bastante elásticos para doblarse cuando llega la presión real.

El silencio cómplice de los demás

El caso de Anthropic no es un aislado. Es el punto más visible de una rendición colectiva. Google, que en 2018 se retiró del Proyecto Maven tras el rechazo de sus empleados a que sus herramientas ayudaran a identificar objetivos en ataques con drones, eliminó en febrero de 2025 toda prohibición ética de su sitio web. La justificación la competencia con China y las necesidades de seguridad nacional.

OpenAI, que en sus inicios se comprometió a desarrollar "IA segura", eliminó ese concepto de su misión al convertirse en empresa con fines de lucro. Ahora promete que la IA beneficiará a la humanidad, pero sin definir qué significa eso. xAI, la compañía de Elon Musk, ya permite el uso sin restricciones de su modelo Grok en aplicaciones militares. Meta, por su parte, abrió sus modelos Llama al gobierno estadounidense para usos de seguridad nacional.

Y Sam Altman, CEO de OpenAI, expresó públicamente su apoyo a Dario Amodei mientras, ese mismo día, anunciaba un acuerdo con el Pentágono. La simultaneidad fue demasiado perfecta solidaridad en público, colaboración con el poder en privado. La percepción de hipocresía es inevitable. Y la señal, clara el Estado no castiga a quienes se alinean. Premia la cooperación. Castiga la resistencia.

Cuando la IA se equivoca, la guerra no perdona

Hay un problema técnico que nadie puede ignorar las alucinaciones. Los sistemas de IA generativa, por su propia arquitectura probabilística, fabrican respuestas falsas con total convicción. En un chat, puede ser gracioso. En un contexto militar, puede ser catastrófico.

Imagina que un sistema de inteligencia basado en IA identifica erróneamente a un civil como amenaza. Que recomienda un ataque preventivo basado en datos inexactos. Que escala un conflicto por un error de cálculo. En Oriente Medio, donde las tensiones ya están al límite, un fallo así podría desencadenar una guerra regional. Y en el peor de los casos, una escalada nuclear. No es ciencia ficción. Es un escenario que muchos expertos ya consideran plausible.

¿Y nosotros? ¿Dónde estamos?

Este conflicto no es solo entre una empresa y el Estado. Es una batalla por quién decide cómo se usa la tecnología que moldea nuestro futuro. Y mientras los gobiernos renuncian a regular, es ilusorio esperar que las grandes corporaciones se impongan límites voluntariamente si eso amenaza sus beneficios o su posición estratégica.

Pero hay una salida. No desde arriba. Desde abajo. Un boicot ciudadano a la IA generativa de las grandes corporaciones. Negarnos como usuarios, como consumidores, a legitimar y financiar con nuestro uso un modelo tecnológico cada vez más alineado con la lógica militar y el poder sin contrapesos.

Algunos dirán que no serviría. Que el impacto macroeconómico sería prácticamente irrelevante. Y tienen razón. Un estudio de Gartner reveló que el 80% del uso de la IA generativa es no profesional entretenimiento, sustitución de buscadores. El 20% restante apenas incide en la economía. Incluso un artículo del Washington Post, citando a Goldman Sachs, señalaba en febrero de 2026 que las masivas inversiones en IA contribuyeron "prácticamente cero" al crecimiento económico. Hasta Daron Acemoglu, premio Nobel de Economía, estimó en 2024 un impacto muy poco significativo sobre la productividad.

No hay, pues, excusas de naturaleza económica que justifiquen mantenernos al margen. Cada suscripción, cada consulta, cada prompt alimenta una máquina que ya no responde a la sociedad. Responde al poder. Y si no actuamos, no será por falta de opciones. Será por falta de voluntad.

Sobre el autor
Redacción
Ver biografía