En noviembre de 2024, mientras muchos seguían con atención el avance de la inteligencia artificial en el sector privado, ocurrió un hecho que pasó relativamente desapercibido fuera de los círculos de seguridad nacional Anthropic y Palantir anunciaron una alianza estratégica. No era un simple intercambio de tecnologías. Era la señal clara de que una de las IA más avanzadas del mundo estaba a punto de integrarse en el sistema nervioso de la maquinaria de defensa y vigilancia de Estados Unidos.
Una IA para el poder
Claude, el modelo estrella de Anthropic, fue descrito desde su lanzamiento como el más fiable, ético y sofisticado del sector. Fundada en 2021 por Dario Amodei tras abandonar OpenAI, Anthropic construyó su reputación sobre la premisa de desarrollar inteligencia artificial segura, alineada con los intereses humanos. Pero ahora, su tecnología se convierte en una herramienta clave para procesar grandes volúmenes de datos complejos en tiempo real, mejorar análisis estratégicos, identificar patrones ocultos y apoyar decisiones en situaciones críticas. En otras palabras, Claude no solo responde preguntas. Ayuda a tomar decisiones que pueden cambiar el curso de operaciones sensibles al tiempo.
El socio elegido no ha sido casual. Palantir, la empresa fundada por Peter Thiel, ya forma parte del sistema operativo de múltiples agencias gubernamentales. Su software se utiliza en el Departamento de Seguridad Nacional, en el Pentágono y, según han revelado investigaciones, también por el ICE para rastrear y localizar personas dentro de Estados Unidos. Palantir no es solo una empresa de datos. Es un actor central en la infraestructura de vigilancia del Estado.
La cadena de matar
Alex Karp, consejero delegado de Palantir, no ha ocultado sus ambiciones. La semana pasada, describió un sistema capaz de acelerar y automatizar la identificación, seguimiento y "neutralización" de amenazas. Lo llamó sin ambages "la cadena de matar". Esta expresión, fría y descriptiva, revela cómo la tecnología ya no sirve solo para observar, sino para actuar. Y ahora, con Claude integrado en su plataforma, esa cadena se vuelve más rápida, más precisa, más difícil de desentrañar.
El Pentágono ya ha reconocido que Claude fue una herramienta crucial en una operación de alto riesgo el secuestro de Nicolás Maduro. Aunque los detalles permanecen clasificados, el hecho de que una inteligencia artificial haya tenido un papel determinante en una operación de este calibre marca un antes y un después. No estamos ante simples algoritmos de recomendación. Estamos ante sistemas que participan activamente en decisiones de vida o muerte.
El exilio de los técnicos
En este contexto, las renuncias dentro del sector adquieren un significado distinto. Mrinank Sharma, uno de los responsables de seguridad de Anthropic, abandonó la empresa con un panfleto en el que advertía sobre el peligro de que estas tecnologías se usaran para desarrollar armas biológicas. No fue una dimisión silenciosa. Fue un grito de alarma. Sharma no solo se fue. Dijo que el mundo está en peligro.
Poco después, Zoë Hitzig, matemática e investigadora en OpenAI durante dos años, publicó una columna en The New York Times anunciando su salida. Su motivo la decisión de OpenAI de integrar publicidad en sus productos. Para ella, era un signo claro de que la compañía había dejado de priorizar la seguridad y la ética en favor del crecimiento comercial. No fue una protesta contra la tecnología, sino contra su dirección.
Mientras tanto, en xAI, la empresa de Elon Musk fundada en 2023, seis de los once cofundadores se despidieron en menos de 48 horas, junto con otros siete ingenieros sénior. La empresa, que se acaba de fusionar con SpaceX, atraviesa una reconfiguración técnica y cultural. Las razones exactas no se han hecho públicas, pero el patrón es claro dentro del mundo de la IA, hay quienes se están alejando, no por falta de fe en la tecnología, sino por temor a cómo se está utilizando.
El dilema ético y la respuesta de Anthropic
Frente a esta deriva, Anthropic ha intentado marcar distancias. La empresa anunció que no permitirá que Claude se use para activar armas letales autónomas ni para implementar sistemas de vigilancia masiva. Es una declaración importante, casi una declaración de principios. Pero también es una advertencia implícita si no ponen fronteras ellos, nadie más lo hará.
Sin embargo, el Gobierno estadounidense ya ha respondido. Ha anunciado que revisará el contrato de 200 millones de dólares que tiene con el Pentágono y ha amenazado con catalogar a Anthropic como "riesgo para la cadena de suministro", una etiqueta que normalmente se reserva para empresas extranjeras de países considerados adversarios. Es una señal de que las decisiones éticas de una empresa privada ya no son solo un asunto interno, sino un tema de seguridad nacional.
US Tech Force y el futuro de la guerra
Paralelamente, el Departamento de Defensa ha lanzado una nueva unidad la US Tech Force. Creada estas Navidades, su objetivo es integrar los servicios de las principales empresas tecnológicas en Palantir, creando un puente directo entre Silicon Valley y el complejo militar-industrial. No es ciencia ficción. Es una estructura operativa que ya está en marcha.
El poder de la IA ya no está en los laboratorios. Está en las salas de operaciones, en los centros de mando, en las decisiones que se toman en fracciones de segundo. Y mientras algunos desarrolladores se marchan, otros avanzan sin mirar atrás. La pregunta ya no es si la tecnología puede cambiar el mundo. La pregunta es quién la controla, quién la limita y quién, al final, tendrá que responder por sus consecuencias.