El pulso entre una empresa de inteligencia artificial y el Departamento de Guerra del gobierno de Donald Trump no ha sido solo un enfrentamiento técnico o contractual. Ha sido un choque de principios, uno que desnuda una realidad incómoda la vigilancia masiva doméstica está avanzando más rápido que las leyes que deberían controlarla. Lo que ha ocurrido este fin de semana con Anthropic no es un incidente aislado. Es un síntoma. Un escalofrío en el sistema.
Un precedente que suena a déjà vu
Recordemos los papeles de Snowden. En 2013, el mundo descubrió que la NSA había estado interceptando comunicaciones de ciudadanos estadounidenses sin autorización judicial. El problema no era solo el espionaje, sino que violaba la cuarta enmienda, que protege contra registros y allanamientos injustificados. El delito no fue espiar, sino hacerlo sin permiso. Esa línea, aparentemente clara, hoy se desdibuja con una ingeniosa trampa legal.
La ley estadounidense prohíbe al gobierno espiar directamente a sus propios ciudadanos. Pero no prohíbe que las empresas privadas lo hagan. Y tampoco prohíbe que el gobierno compre esos datos. Operadoras, redes sociales, brokers de datos todos recopilan información a gran escala. Y organismos como el Departamento de Guerra pueden adquirirla, integrarla y analizarla con herramientas de inteligencia artificial. El Estado no espía; compra el espionaje.
Palantir y el arte de conectar los puntos
En el centro de esta red se encuentra Palantir, la oscura empresa fundada por Peter Thiel y dirigida por Alex Karp, cuya plataforma Gotham es su producto estrella. Gotham no es solo software. Es un sistema capaz de integrar bases de datos de todo tipo y origen, desde registros policiales hasta información de telefonía, movimientos bancarios o geolocalización. Todo en un solo lugar. Todo conectado.
Permite ver relaciones entre datos aparentemente desconectados, trazar mapas geoespaciales, líneas de tiempo y, lo más potente, realizar búsquedas complejas que ni los analistas humanos podrían hacer a esa escala. Es una máquina de predicción basada en rastros digitales. Y no está diseñada para empresas. Está pensada para organismos de defensa, inteligencia y seguridad pública.
Cuando la IA entra en la sala de operaciones
Hace unos meses, Anthropic firmó un acuerdo para integrar su modelo de inteligencia artificial Claude en la plataforma de Palantir. El producto fue rebautizado como "plataforma de inteligencia artificial para la toma de decisiones críticas". Una frase que suena a neutralidad técnica, pero que encierra decisiones con consecuencias reales, sangre real. En el último mes, algunas de esas decisiones han incluido redadas del ICE, la Operación Furia Épica y, según las filtraciones, incluso el secuestro de Nicolás Maduro.
En este contexto, la negativa de Anthropic a colaborar con la automatización de armas letales no surge de una postura moral clásica. No es un manifiesto pacifista. Es una decisión estrictamente técnica. Sus modelos, como Claude, al igual que Gemini, Grok o GPT, no son lo suficientemente fiables, controlables ni interpretables para delegar el gatillo de un arma automática.
Por qué la IA no debe decidir quién vive o muere
Estos modelos son probabilísticos. No razonan como un humano; predicen. Y al predecir, pueden equivocarse. Pueden malinterpretar una señal, confundir un objetivo, o peor alucinar. Sí, alucinar. Pueden inventar amenazas con la misma facilidad con la que generan libros que nunca se escribieron o batallas que nunca ocurrieron. Un modelo que alucina no puede tener acceso a un arma autónoma.
Y el problema es aún más profundo no entendemos del todo cómo estos modelos toman decisiones. Sin transparencia, sin trazabilidad y sin garantías absolutas de que obedecerán órdenes y respetarán límites en escenarios adversariales, cualquier sistema autónomo podría desencadenar una escalada imparable. Un error de algoritmo podría desembocar en una guerra.
Amodei ha sido fabulosamente explícito. Ha dado ejemplos concretos de usos a los que su empresa se niega. No es solo una cuestión de ética. Es una cuestión de integridad técnica. Por suerte, Anthropic no quiere ser responsable. Lamentablemente, OpenAI sí. Mientras algunos desarrolladores actúan como freno, otros parecen dispuestos a entregar el control a quienes ya usan la IA para operaciones militares, cacerías de inmigrantes y vigilancia sistemática."Es una dinámica en la que la vigilancia masiva doméstica está adelantándose a la ley." - Darío Amodei, director de Anthropic
¿Dónde trazamos la línea?
Este caso no es solo sobre una empresa negándose a un contrato. Es sobre quién controla el poder de la IA, bajo qué reglas y para qué fines. Europa está intentando legislar con el AI Act, tratando de anticiparse a estos riesgos. Estados Unidos, en cambio, avanza por la vía oscura contratos opacos, compras de datos masivas y alianzas entre empresas privadas y agencias de seguridad.
El gobierno no está violando la Constitución. Está encontrando formas legales de hacer lo que antes era ilegal. Y mientras tanto, la tecnología avanza a una velocidad que ni jueces ni legisladores alcanzan a seguir. El verdadero peligro no es que la IA se vuelva consciente, sino que se vuelva incontrolable en manos equivocadas.
Y mientras el mundo mira hacia los cielos, esperando naves alienígenas, lo que debería inquietarnos está aquí, en los servidores, en los algoritmos, en las decisiones que ya se están tomando sin debate público. La próxima vez que veas una redada, un ataque con drones o un operativo de inteligencia, pregúntate ¿quién dio la orden? ¿Un humano? ¿O una máquina que simplemente predijo que era lo correcto?