El silencio con el que avanza la inteligencia artificial en los pasillos del poder tiene algo inquietante. No hay desfiles, no hay manifestaciones, apenas ruido mediático. Sin embargo, bajo la superficie, el mundo que conocemos se está reconfigurando. Y ahora, Google empresa cuyo lema alguna vez fue "no hagas el mal" ha dado un paso más hacia el corazón del complejo militar estadounidense. Un nuevo acuerdo permite al Departamento de Defensa de EE. UU. utilizar los modelos de inteligencia artificial de Google en tareas clasificadas, con una libertad de uso que abarca "cualquier fin gubernamental lícito". La frase suena burocrática, pero su peso es enorme.
Una alianza de 200 millones de dólares
En 2025, el Pentágono firmó acuerdos por hasta 200 millones de dólares con tres de los gigantes de la IA Anthropic, OpenAI y ahora, oficialmente, Google. No son contratos menores. Son puertas abiertas al uso de inteligencia artificial en operaciones que, por su naturaleza clasificada, permanecen ocultas al escrutinio público. El acceso a estos modelos podría transformar desde la inteligencia estratégica hasta la logística militar, pasando por el análisis de imágenes satelitales o la predicción de movimientos enemigos. La tecnología que nació en laboratorios para facilitar búsquedas o redactar correos está ahora en manos de quienes diseñan estrategias de defensa nacional.
Un portavoz de Google Public Sector confirmó que el nuevo acuerdo es una enmienda a su contrato existente, como si se tratara de un ajuste técnico menor. Pero no lo es. Es un salto cualitativo. Google ya no solo provee infraestructura o herramientas generales ahora sus algoritmos pueden participar en decisiones de seguridad nacional. Y no está solo. OpenAI, con su modelo GPT, y xAI, la empresa de Elon Musk, también tienen acuerdos similares. El escenario es claro las principales fuerzas de la IA global están alineándose con el aparato militar estadounidense.
Del Departamento de Defensa al Departamento de Guerra
En paralelo, el presidente Donald Trump ha ordenado cambiar el nombre del Departamento de Defensa por el de Departamento de Guerra una denominación que no se usaba desde 1947. El cambio simbólico resuena como un eco del pasado fue durante la Segunda Guerra Mundial cuando el término "guerra" se usaba sin eufemismos. Ahora, volver a emplearlo no es solo una cuestión de branding. Es una señal. Y aunque el cambio requiere aprobación del Congreso y aún no es oficial, su anuncio envía un mensaje de contundencia. En un mundo de tensiones geopolíticas crecientes con conflictos activos en Europa del Este, inestabilidad en el Indo-Pacífico y una carrera armamentística tecnológica en marcha, Estados Unidos parece estar preparando su narrativa para una nueva era.
El contexto no puede ser más delicado. La noticia se filtra desde Bangalore, el 27 de abril de 2026, y se publica al día siguiente, en un momento de volatilidad en los mercados. Las acciones de Alphabet la matriz de Google suben GOOG avanza un 1,81%, GOOGL un 1,72%. El mercado celebra lo que muchos ciudadanos miran con desconfianza la militarización de la IA. Detrás de cada punto porcentual, hay una pregunta sin responder ¿hasta dónde debe llegar la colaboración entre Big Tech y el poder militar?
¿IA al servicio de la defensa o de la ofensiva?
La tecnología no es buena ni mala por sí misma. Pero su uso sí puede serlo. Un modelo de IA que analiza patrones de movimiento en zonas de conflicto puede evitar bombardeos civiles… o, por el contrario, optimizarlos. Un sistema que predice movimientos estratégicos puede prevenir una guerra… o acelerarla. El margen entre defensa y ofensiva se vuelve borroso cuando la inteligencia artificial entra en el juego. Y ahora, con empresas como Google en el centro de esa ecuación, la responsabilidad ética pesa más que nunca.
En la década de 2010, empleados de Google protestaron contra el proyecto Maven, que usaba IA para analizar drones militares. Muchos renunciaron. La presión interna forzó a la empresa a no renovar el contrato. Hoy, esa resistencia parece haberse apagado o haber sido superada por intereses mayores. Las decisiones ya no se toman solo en Silicon Valley, sino también en el Pentágono. Y el ritmo es acelerado mientras debatimos si los chatbots deben decir groserías, estos mismos modelos ya están siendo entrenados para misiones que podrían decidir el futuro de una región entera.
El avance de la IA en la esfera militar no es ciencia ficción. Es una realidad en desarrollo, silenciosa, discreta, pero irreversible. Y mientras las acciones suben y los gobiernos firman contratos, queda una pregunta flotando en el aire cuando una máquina ayuda a tomar decisiones de vida o muerte, ¿quién rinde cuentas? No será el algoritmo. Tampoco el ingeniero que lo programó. La responsabilidad, como siempre, recaerá en quienes tienen el poder de decir adelante. Y en quienes, en silencio, asienten.