Anthropic pierde un contrato de 100 millones por negarse a la vigilancia masiva con IA

"Nosotros decidiremos el destino del país, NO una IA radical": Trump carga contra Anthropic

11 de marzo de 2026 a las 17:20h
Anthropic pierde un contrato de 100 millones por negarse a la vigilancia masiva con IA
Anthropic pierde un contrato de 100 millones por negarse a la vigilancia masiva con IA

En medio de un escenario tecnológico cada vez más polarizado, una empresa de inteligencia artificial se encuentra en el centro de una tormenta política. Anthropic, desarrolladora del modelo de IA Claude, ha decidido dar un paso inusual demandar al Departamento de Defensa de Estados Unidos. La razón no es un fallo técnico ni un problema de seguridad, sino una decisión administrativa que muchos consideran más política que técnica.

Una lista negra con sabor a censura

El gobierno estadounidense incluyó recientemente a Anthropic en una lista negra bajo la categoría de "riesgo para la cadena de suministro". En teoría, esa designación está pensada para proteger los sistemas críticos del país de adversarios extranjeros capaces de sabotearlos. Pero Anthropic no es un adversario extranjero. Es una empresa fundada en Estados Unidos, con sede en California, que ha trabajado activamente en cuestiones de seguridad y ética en IA.

La etiqueta no solo es inapropiada, sino que parece violar el espíritu de la ley que la sustenta. Expertos jurídicos de Lawfare, un influyente foro de análisis legal y seguridad nacional, han señalado que el concepto de "riesgo para la cadena de suministro" está diseñado para actores que puedan infiltrar o manipular sistemas desde dentro, como espías o actores estatales hostiles. Aplicarlo a una empresa que se niega a colaborar en usos controvertidos de su tecnología es, en su opinión, un mal uso del poder regulatorio.

Lo que parece ser una medida de seguridad se siente más como un castigo político. Y hay indicios claros de que así es. Tras la designación, Donald Trump, desde su plataforma Truth Social, lanzó una crítica directa "Nosotros decidiremos el destino de nuestro país, NO una empresa de inteligencia artificial radical de izquierda fuera de control dirigida por personas que no tienen ni idea de cómo es el mundo real".

El origen del conflicto ética frente a poder

El corazón del conflicto no es técnico ni legal, sino ético. Anthropic se negó a permitir que su tecnología se utilizara para vigilancia masiva de ciudadanos o para el desarrollo de armas autónomas sin supervisión humana. El Pentágono, por su parte, exigía acceso sin límites al modelo de IA, sin restricciones en su aplicación.

La empresa argumenta que esa postura no nace del activismo político, sino de un compromiso con la seguridad y la responsabilidad. Desde su creación, Anthropic ha construido barreras éticas dentro de sus modelos, diseñadas para evitar usos peligrosos o abusivos. Pero esas mismas barreras son vistas por algunos sectores del gobierno como obstáculos a la eficacia militar.

El rechazo a la militarización sin control de la IA ha tenido consecuencias inmediatas y tangibles. Contratos con el gobierno se han cancelado. Otros, en el sector privado, están en riesgo. Paul Smith, director comercial de Anthropic, advirtió que un cliente importante ya ha cambiado de plataforma "sólo este contrato les hará perder al menos 100 millones de dólares".

Un precedente peligroso

La demanda presentada por Anthropic no es solo una defensa corporativa. Es un esfuerzo por proteger un espacio de autonomía ética en un campo cada vez más dominado por intereses de Estado. La empresa asegura que sigue comprometida con la seguridad nacional, pero insiste en que no puede hacerlo a cualquier precio.

"La demanda es un paso necesario para proteger nuestro negocio, nuestros clientes y nuestros socios" - portavoz de Anthropic, declarado a Fortune

El mensaje es claro no se trata de oponerse al gobierno, sino de exigir transparencia y legalidad en cómo se toman decisiones que afectan a la innovación tecnológica. Si una empresa puede ser castigada por negarse a colaborar en usos cuestionables de la IA, el precedente es inquietante.

Mientras tanto, el gobierno ha redirigido sus esfuerzos hacia OpenAI, convirtiéndola en su nuevo socio principal para el desarrollo de aplicaciones de inteligencia artificial en defensa. Un giro que no pasa desapercibido uno se pregunta si la diferencia no está tanto en la tecnología como en la disposición a decir no.

La IA no es neutral, pero tampoco es política

El caso de Anthropic revela una tensión creciente la inteligencia artificial no es un mero instrumento técnico. Sus decisiones reflejan valores. Y cuando esos valores entran en conflicto con los intereses de Estado, el resultado puede ser una batalla legal, económica y simbólica.

Que una empresa sea etiquetada como "riesgo" por negarse a permitir el uso de su tecnología en vigilancia masiva o armas autónomas dice mucho sobre los tiempos que vivimos. No solo sobre la IA, sino sobre el poder, la ética y quién decide qué es legítimo en nombre de la seguridad.

La demanda de Anthropic podría marcar un antes y un después. No solo para la empresa, sino para todas aquellas que intenten navegar entre la innovación y la responsabilidad. Porque al final, no se trata de saber quién controla la IA, sino quién define sus límites.

Sobre el autor
Redacción
Ver biografía