La inteligencia artificial ya no es solo una promesa tecnológica. Es un campo de batalla. No en sentido metafórico, sino literal. En los despachos del Pentágono, en las salas de juntas de las grandes empresas de tecnología y en las conciencias de los ingenieros que construyen estos sistemas, se está librando una disputa que definirá no solo el futuro de la guerra, sino también el de la democracia.
El ultimátum del Pentágono
El mes de febrero de 2026 marcó un punto de inflexión. El Secretario de Defensa, Pete Hegseth, exigió a Anthropic, una de las compañías punteras en IA, que entregara acceso total a su modelo Claude para su uso militar. La amenaza era clara si no cumplían, se cancelarían contratos valorados en 200 millones de dólares y se consideraría a la empresa un riesgo para la cadena de suministro nacional. La fecha límite el viernes siguiente. Nada de negociaciones, nada de salvaguardas. Acceso total, sin condiciones.
Para cualquier empresa, la presión sería inmensa. Pero Anthropic no cedió. Su director general, Dario Amodei, respondió con una declaración que resonó en todo el sector "no puede, de buena fe, acceder a la solicitud". Permitir que su tecnología alimente armas autónomas o vigilancia masiva, dijo, es incompatible con los valores democráticos. La IA puede ser un arma defensiva, pero no a cualquier precio.
Una guerra de posturas
Amodei no rechaza el uso militar de la IA. Al contrario. Afirmó
Creo firmemente en la importancia existencial de usar la IA para defender EE UU y otras democracias, así como para derrotar a nuestros enemigos autócratas
Pero hay líneas rojas que no puede cruzar. Y una de ellas es el desarrollo de sistemas que tomen decisiones letales sin supervisión humana.
El Pentágono, sin embargo, parece apostar por una estrategia de división. Amenaza con retirar contratos a quienes no colaboren, intentando forzar a cada empresa a competir por favores. Así lo denunciaron cerca de 50 trabajadores de OpenAI y 175 de Google en una carta conjunta a sus directivos
Por favor, hagan todo lo que esté en su mano para frenar cualquier trato que cruce esas líneas rojas básicas. Nos encanta trabajar en Google y queremos estar orgullosos de nuestro trabajo
La carta también advertía
Están intentando dividir a cada compañía con el miedo de que la competencia acceda
Un juego de poder donde la ética se convierte en moneda de cambio.
El giro de las grandes tecnológicas
El entorno ha cambiado drásticamente desde el regreso de Donald Trump a la presidencia. Desde entonces, la Casa Blanca ha impulsado con fuerza la supremacía de EE UU en IA, tratándola como un activo geoestratégico clave. El plan bautizado como "Stargate" prevé una inversión de 500.000 millones de dólares. El mensaje es claro la IA no es solo para mejorar smartphones o recomendaciones de videos. Es para ganar guerras.
Y las empresas han ido adaptándose. En febrero de 2025, Google eliminó de su código de conducta la prohibición de desarrollar armas o herramientas de vigilancia masiva. Un giro simbólico, pero profundo. Microsoft reconoció meses después haber vendido tecnología de IA al ejército israelí durante el conflicto en Gaza. OpenAI firmó un contrato de 200 millones de dólares con el Pentágono y eliminó en 2024 la prohibición de usar su IA en tareas militares. Meta, por su parte, abrió sus modelos a contratistas como Lockheed Martin.
Las salvaguardas éticas se están convirtiendo en opciones, no en obligaciones. Y los ingenieros, muchos de ellos idealistas cuando entraron al sector, se ven cada vez más atrapados entre su trabajo y su conciencia.
La voz de los que construyen
En medio de este escenario, la reacción interna ha sido contundente. La carta de los empleados de Google a Jeff Dean, su director científico, no fue un simple manifiesto. Fue un grito de alerta. Y Dean respondió en público
Agreed. Mass surveillance violates the Fourth Amendment and has a chilling effect on freedom of expression. Surveillance systems are prone to misuse for political or discriminatory purposes
Una confirmación desde lo más alto incluso dentro de las propias empresas, hay quien reconoce el peligro. La vigilancia masiva no solo es moralmente cuestionable. Atenta directamente contra derechos fundamentales como la libertad de expresión.
El cuerpo de élite tecnológico
El Ejército de EE UU no solo busca tecnología. Busca talento. En junio de 2025, creó el Destacamento 201, también conocido como Cuerpo Ejecutivo de Innovación, con el objetivo explícito de fusionar la punta de lanza tecnológica con la innovación militar. Y nombró como tenientes coroneles en la reserva a figuras clave del ecosistema Adam Bosworth de Meta, Kevin Weil de OpenAI, Shyam Sankar y Bob McGrew de Palantir.
Estos no son militares que aprenden de tecnología. Son tecnólogos que se convierten en militares. La frontera entre el sector privado y la defensa se desdibuja a una velocidad sin precedentes. Y con ella, también se diluye la noción de quién controla el poder de la IA.
¿Hacia qué futuro avanzamos?
Las decisiones tomadas hoy no solo afectarán a los campos de batalla del mañana. Definirán si las democracias pueden mantener sus principios mientras se defienden. ¿Es posible luchar contra regímenes autocráticos sin convertirse en ellos? ¿Puede la IA ser una herramienta de defensa sin volverse opresiva?
Anthropic ha dicho que no a un acceso total. Google enfrenta tensiones internas. Microsoft y OpenAI ya están en el juego. Y el Pentágono, apoyado por una administración que prioriza la supremacía tecnológica, no parece dispuesto a negociar.
Este no es un conflicto entre códigos o algoritmos. Es un conflicto de valores. Y la pregunta que queda en el aire, flotando sobre servidores y cuarteles, es sencilla ¿qué clase de futuro queremos construir, y a qué costo?