El silbido de una bala inteligente no suena muy diferente al de cualquier otra. Pero lo que sí puede distinguirla es quién pulsa el botón. Esa línea tenue entre la inteligencia artificial como herramienta y como cómplice en decisiones de vida o muerte ha estallado en plena cara del Pentágono, donde una decisión inusual ha desencadenado una tormenta de implicaciones éticas, legales y estratégicas.
Cuando la IA dice no
Anthropic, la empresa detrás del popular asistente Claude, no ha sido expulsada por ineficaz, ni por insegura, ni por estar controlada desde el extranjero. Ha sido apartada por resistirse. Resistirse a desactivar salvaguardas que impiden que su tecnología se use para vigilancia masiva dentro de Estados Unidos o para dotar de autonomía total a armas letales. Una negativa técnica, pero profundamente humana la de no ceder ante la presión del poder cuando el precio es la ética.
El Pentágono ha respondido con una medida drástica declarar a Anthropic un riesgo para la cadena de suministro. En teoría, esa etiqueta está reservada para tecnologías que puedan ser manipuladas por adversarios, como una pieza fabricada en una fábrica bajo el control de Pekín o Moscú. Pero aquí el enemigo no es un competidor extranjero. Es un fundador con principios. Dario Amodei, antiguo líder de OpenAI, fundó Anthropic en 2021 con una premisa clara la IA debe ser segura por diseño, no después del desastre.
Un conflicto de poder, no de capacidad
El Departamento de Defensa insiste en que lo que está en juego es el derecho a usar cualquier tecnología legalmente disponible. "Las Fuerzas Armadas no permitirán que un proveedor se inserte en la cadena de mando restringiendo el uso legal de una capacidad crítica", afirma su comunicado. La palabra clave es uso. No precisamente qué se hace con la IA, sino quién decide qué se puede hacer.
Pero Amodei no ha bloqueado operaciones militares. Ha planteado límites en el diseño del sistema. Salvaguardas que no impiden el uso de Claude en logística, análisis de datos o apoyo táctico. Lo que sí impiden es que ese mismo sistema pueda, por ejemplo, seleccionar objetivos sin intervención humana o analizar masivamente comunicaciones civiles sin autorización. Un freno anticipado, no un veto operativo.
Y eso, parece, no ha gustado. Donald Trump, acompañado por el secretario de Defensa Pete Hegseth, calificó la postura de Anthropic como una amenaza a la seguridad nacional. Un paradoja una empresa estadounidense, transparente, financiada por capital nacional, es tratada como un eslabón débil, mientras otras, con alianzas más opacas, siguen operando sin escrutinio.
El efecto dominó
La respuesta del sector no se ha hecho esperar. Lockheed Martin, uno de los mayores contratistas militares, dijo que seguirá las indicaciones del gobierno y buscará alternativas. "Esperamos un impacto mínimo", aseguraron, destacando que no dependen de un único proveedor. Pero la tranquilidad suena a diplomacia. Cambiar un sistema de IA profundamente integrado en operaciones de seguridad no es como cambiar de proveedor de café.
Mientras tanto, OpenAI ha aprovechado el vacío. Pocas horas después de la sanción a Anthropic, anunció un acuerdo para integrar ChatGPT en entornos clasificados. Ironías de la historia OpenAI también había solicitado salvaguardas similares. Pero luego las retiró. Su CEO, Sam Altman, reconoció después que el trato "parecía oportunista y chapucero".
Y aquí entra el gesto incómodo. Dario Amodei, en una nota interna filtrada, criticó duramente el comportamiento de OpenAI, llegando a decir que Anthropic era castigada por no ofrecer "elogios dignos de un dictador" al presidente. Ahora, públicamente, ha pedido disculpas. "Fue un día difícil para la empresa", admitió. La batalla no es solo entre empresas o entre sectores, sino entre formas de entender el poder.
Un precedente peligroso
La senadora Kirsten Gillibrand no ha dudado en calificar la medida como "un regalo para nuestros adversarios". Junto a antiguos jefes de la CIA, de la Fuerza Aérea y de la Armada, ha advertido que usar herramientas diseñadas para protegerse de espías extranjeros contra innovadores nacionales es un error de categoría. "Esta herramienta está pensada para proteger a Estados Unidos de la infiltración de adversarios extranjeros, no de empresas estadounidenses que operan bajo el imperio de la ley", señala la carta de los exresponsables de defensa.
Neil Chilson, exresponsable de tecnología de la Comisión Federal de Comercio, coincide: "Es un exceso masivo que perjudicará tanto al sector estadounidense de la IA como a la capacidad de las Fuerzas Armadas para adquirir la mejor tecnología". Castigar la transparencia y el control ético puede acabar favoreciendo precisamente a quienes no los tienen.
El público, de momento, elige a Claude
Mientras los generales discuten, el mundo sigue usando. Curiosamente, en medio del escándalo, más de un millón de personas se han registrado diariamente en Claude esta semana. La app ha superado a ChatGPT y a Gemini como la principal aplicación de inteligencia artificial en más de 20 países en la App Store de Apple.
Quizá no sea casualidad. La gente no solo quiere respuestas rápidas. Quiere confiar en quién las da. Anthropic no ha prometido más poder. Ha prometido más límites. Y en tiempos de desconfianza, eso, paradójicamente, suena a garantía.
Microsoft, por cierto, ha confirmado que sus abogados han revisado la norma. Por ahora, pueden seguir colaborando con Anthropic en proyectos civiles, comerciales, académicos. Solo el vínculo militar está bajo lupa. No es una prohibición total, pero sí un mensaje claro el Estado quiere la IA sin cortapisas.
¿Quién controla al controlador?
La disputa no es solo sobre un contrato o una tecnología. Es sobre el alma de la innovación. ¿Puede una empresa decir no al gobierno cuando cree que está cruzando una línea? ¿O toda resistencia se convierte automáticamente en amenaza?
El Pentágono insiste en que no se trata de censura, sino de soberanía operativa. Pero los críticos ven otra cosa la instrumentalización de una norma de seguridad para castigar una postura ética. Y eso, dicen, erosiona no solo la confianza en las empresas, sino en el propio sistema.
Amodei ha anunciado que impugnará la decisión en los tribunales. Mientras tanto, pide una transición fluida. No quiere dejar a los soldados sin herramientas. Pero tampoco quiere entregar su conciencia por contrato.
"No creemos que esta medida tenga un fundamento legal sólido y no vemos otra opción que impugnarla ante los tribunales" - Dario Amodei, consejero delegado de Anthropic
En esta batalla, no hay explosiones ni batallas navales. Pero hay algo en juego que tal vez sea más frágil el equilibrio entre poder y responsabilidad. Entre lo que se puede hacer… y lo que se debe hacer.