El anuncio llegó de madrugada, horario habitual para las noticias que se quieren anunciar sin ruido. Sam Altman, CEO de OpenAI, publicó un breve tuit la compañía había acordado desplegar sus modelos de inteligencia artificial en la red clasificada del Departamento de Guerra de Estados Unidos. No hubo discursos grandilocuentes, solo una línea que abría la puerta a una nueva era la de la IA en el corazón mismo de la maquinaria militar estadounidense.
Un giro estratégico con precedentes
OpenAI no es la primera empresa de inteligencia artificial en trabajar con el gobierno estadounidense. Hasta hace muy poco, ese rol lo desempeñaba Anthropic, con su modelo Claude. Durante meses, había mantenido una estrecha colaboración, incluso con implicaciones operativas se llegó a utilizar su tecnología para el análisis de inteligencia en el caso del arresto de Nicolás Maduro, aunque finalmente este no prosperó. Pero todo cambió cuando el Pentágono presentó nuevas condiciones para seguir trabajando con proveedores de IA.
El viernes pasado, a las 1701, caducó el plazo que Anthropic tenía para aceptar esos términos. No lo hizo. Algo en los nuevos requisitos no encajaba con sus principios o con su visión del uso ético de la inteligencia artificial. Y en ese vacío, OpenAI entró con decisión.
El precio de entrar en la máquina de guerra
El acuerdo anunciado por OpenAI incluye una serie de salvaguardas que la compañía califica de "más estrictas que cualquier otro despliegue previo de IA clasificada". Entre ellas, dos líneas rojas claramente trazadas nada de espionaje a ciudadanos estadounidenses, y nada de armas autónomas. Además, se prohibe expresamente el uso de sus modelos para sistemas de "crédito social", una tecnología asociada a regímenes de control masivo.
En el documento oficial se aclara "El Departamento de Guerra podrá utilizar el sistema de IA para todos los fines legales, de conformidad con la legislación aplicable, los requisitos operativos y los protocolos de seguridad y supervisión bien establecidos". Y se insiste el sistema no se utilizará para dirigir de forma independiente armas autónomas en escenarios donde la ley exija control humano. Tampoco para tomar decisiones de alto riesgo sin aprobación humana.
Suena sólido. Pero hay fisuras. La Ley Patriota, vigente desde 2001, permite bajo ciertos supuestos el espionaje masivo de ciudadanos estadounidenses. Si la IA de OpenAI es usada para procesar datos recolectados por estos sistemas, ¿está realmente cumpliendo con su promesa de no espiar? Es aquí donde la ética choca con la letra de la ley.
La sombra de la paria
El rechazo de Anthropic no pasó desapercibido. Fuentes del Departamento de Estado han indicado que esta decisión "fluye desde el pilar de "todo uso legítimo"", una frase que suena a justificación, pero también a advertencia. El gobierno quiere IA potente, y quiere poder usarla sin límites operativos.
Y cuando una empresa se niega, la respuesta puede ser implacable. El Pentágono ha dejado entrever que podría convertir a Anthropic en "una empresa paria". No ha tomado medidas oficiales, por ahora, pero el mensaje está claro quien no juegue el juego, queda fuera. En el mundo de la defensa, eso puede significar el fin del acceso a contratos millonarios, a datos sensibles, a influencia estratégica.
Las voces desde dentro
El mundo de la IA no es ajeno al debate ético. Casi 800 empleados de grandes tecnológicas han firmado una carta abierta titulada "No seremos divididos". 681 de Google, 96 de OpenAI. No es un manifiesto contra el uso militar de la IA, sino contra la fractura que estos acuerdos provocan dentro de las propias compañías. Los que diseñan la tecnología no siempre quieren que se use para la guerra.
Sam Altman, en una entrevista con CNBC, se mostró conciliador hacia Anthropic "confío en ellos como empresa, y creo que realmente se preocupan por la seguridad". Dos días antes, en un memorando interno, había expresado su deseo de que "las cosas desescalasen" entre Anthropic y el Departamento de Defensa. Palabras de paz, seguidas de un movimiento estratégico que, para muchos, suena a victoria por knockout.
Cuando la red se enfurece
En Reddit, las reacciones no se han hecho esperar. Mensajes con miles de votos positivos piden "Cancelar ChatGPT". Los comentarios son brutales "¿Ahora somos cómplices?", "Altman vendió el alma al Pentágono", "No quiero que mi IA sea un dron con ojos". La relación entre el usuario y la tecnología se tensa cuando percibe que su herramienta cotidiana entra al servicio de maquinarias que no controla.
Y es que ChatGPT ya no es solo un ayudante para redactar correos o estudiar idiomas. Es un modelo que ahora vive en servidores clasificados, analizando datos que nunca veremos, tomando parte en decisiones que no entenderemos. No como una máquina de guerra, tal vez, pero sí como un componente de ella.
La paradoja de la salvaguarda
OpenAI insiste en que este acuerdo es diferente. Mejor regulado. Más seguro. Más transparente. Pero la pregunta que queda flotando es simple si las salvaguardas son tan fuertes, ¿por qué Anthropic las rechazó? ¿Son líneas rojas o simplemente cortinas de humo? La promesa de no usar IA para armas autónomas suena bien, pero solo si se cumple en la práctica, no en el papel.
Y mientras tanto, la IA sigue avanzando más rápido que la ética, la legislación y la conciencia colectiva. Entrar en la red clasificada del Pentágono no es un paso técnico. Es un salto simbólico. Es el momento en que la inteligencia artificial deja de ser solo una herramienta del presente y se convierte en un actor del futuro de la guerra, la vigilancia y el poder.