En el mundo de la inteligencia artificial, donde los algoritmos deciden cada vez más sobre nuestras vidas, rara vez se habla de conciencia. No la de las máquinas, sino la de quienes las crean. Ahora, una batalla legal en Silicon Valley está poniendo sobre la mesa una pregunta incómoda ¿puede una empresa decirle al ejército cómo no debe usar su tecnología? Y más aún ¿qué pasa cuando el gobierno responde con un veto total, no por razones técnicas, sino por motivos que rozan lo político?
Una empresa estadounidense en la lista negra
Anthropic, la compañía detrás del modelo de inteligencia artificial Claude, acaba de entrar en un territorio inexplorado. No por un avance tecnológico, sino por una decisión del Departamento de Defensa de Estados Unidos que la ha etiquetado como "riesgo para la cadena de suministro". Una etiqueta que suena técnica, pero que en la práctica equivale a una expulsión. Es la primera vez que una empresa tecnológica estadounidense es incluida en esta lista negra, un listado antes reservado para compañías con vínculos con potencias rivales como China o Rusia.
Hasta hace poco, Anthropic tenía un contrato de 220 millones de dólares con el Pentágono para gestionar archivos clasificados en la nube. Un trabajo delicado, estratégico, clave para la modernización digital del ejército. Pero todo cambió cuando Dario Amodei, fundador de la empresa, planteó dos condiciones claras que su IA no se usara para espionaje masivo de ciudadanos ni para gestionar armas autónomas sin supervisión humana. Una postura ética que, en otro contexto, podría parecer razonable. Pero en tiempos de guerra, parece haberse interpretado como una provocación.
La guerra por los límites de la IA
El Departamento de Defensa, ahora bajo el mando de Pete Hegseth, rechazó las condiciones de forma tajante. Según fuentes cercanas, Hegseth ha insistido en que el ejército no acepta que una empresa privada le imponga límites en cómo actuar en un entorno de conflicto. "El ejército no necesita permiso para usar herramientas en combate", fue la respuesta oficial. Pero lo más llamativo no es solo el rechazo, sino lo que vino después el veto total.
Trump, en una declaración pública, confirmó que el bloqueo afectaría "todos los contratos con todas las agencias" y también a cualquier empresa que trabaje con el gobierno federal. En la práctica, esto significa que Anthropic queda aislada del gigantesco ecosistema de contratación pública. No solo pierde al Pentágono; también pierde a Google, Amazon y otros socios que operan bajo contratos federales. Para una empresa que factura más de 20.000 millones de dólares, el impacto financiero podría ser devastador.
Una demanda con ecos constitucionales
Frente a esta medida, Anthropic no se quedó de brazos cruzados. La empresa ha presentado una demanda ante un juez federal en San Francisco, argumentando que el gobierno ha violado sus derechos bajo la Primera Enmienda. No por censurar un mensaje, sino por castigar a una compañía por expresar una postura ética sobre el uso de su tecnología.
"La Constitución no permite al Gobierno ejercer su enorme poder para castigar a una empresa por su libertad de expresión" - Abogados de Anthropic, en la demanda presentada ante el Tribunal de Distrito de Estados Unidos para el Distrito Norte de California
Los abogados de la empresa subrayan que Anthropic se fundó con un propósito claro desarrollar IA segura, responsable y alineada con el bienestar humano. En la demanda, escriben que el gobierno ha tomado represalias por expresar ese principio. Es un argumento inusual no se trata de defender un producto, sino de proteger una convicción.
El doble estándar del Pentágono
La ironía no pasa desapercibida. Mientras Anthropic es apartada por plantear límites éticos, el mismo día en que se anunció la ruptura, el Pentágono firmó un nuevo contrato con OpenAI, la empresa dirigida por Sam Altman, competidora directa de Amodei. Nadie ha exigido a OpenAI que limite el uso militar de sus sistemas. Nadie ha cuestionado su seguridad. La diferencia parece no ser técnica, sino política.
Las negociaciones entre Amodei y altos cargos de la Administración Trump llegaron hasta el fin de semana. No hubo acuerdo. Desde dentro del gobierno, se ha acusado a Amodei de "mentir" y de "querer jugar a ser dios". El empresario, por su parte, atribuye el veto a razones más prosaicas no haber donado a la causa republicana ni haber elogiado públicamente el estilo de liderazgo del presidente. Una acusación que, si es cierta, convertiría una decisión de seguridad nacional en una venganza personal.
El reloj cuenta atrás
Anthropic tiene ahora seis meses para desconectarse de todos los sistemas federales. Un plazo que da tiempo, pero no alivio. Durante ese periodo, el ejército seguirá usando su herramienta en bombardeos en Irán, en la definición de objetivos, en la planificación de operaciones. La tecnología sigue activa, incluso mientras su creadora es tratada como una amenaza.
La demanda no solo busca anular la orden de Trump. Busca un precedente. Uno que diga que, en democracia, no se puede silenciar a quien pide responsabilidad. Que una empresa puede tener principios sin ser castigada por ellos. Que el poder no debe usarse para imponer obediencia, sino para garantizar equilibrio.
Este caso no es solo sobre IA. Es sobre el lugar que queremos que ocupen los valores en la era de las máquinas. Y sobre quién decide qué significa usar la tecnología con responsabilidad quienes la construyen, o quienes la empuñan como arma.