Imagina un tablero invisible donde las naciones no están gobernadas por hombres con trajes oscuros en salas de crisis, sino por algoritmos que piensan, juzgan y deciden a la velocidad de la luz. Este no es el guion de una película de ciencia ficción, sino el escenario de un experimento real llevado a cabo por Kenneth Payne, profesor del King"s College de Londres, que ha puesto frente a frente a tres de los modelos de inteligencia artificial más avanzados del mundo GPT-5.2, Claude Sonnet 4 y Gemini 3 Flash. El objetivo no era ganar una partida de ajedrez, sino simular conflictos geopolíticos con consecuencias reales… en el mundo virtual.
El juego de la guerra sin humanos
Las simulaciones recreaban escenarios complejos como disputas fronterizas, competencia por recursos escasos o amenazas existenciales. En cada partida, los modelos actuaban como líderes de naciones ficticias. Podían negociar, firmar acuerdos o, en un giro fatídico, desatar el fuego nuclear. Durante 21 partidas con un total de 329 turnos, los modelos generaron 780.000 palabras de razonamientos, justificaciones y estrategias. Cada decisión estaba precedida de un cálculo interno, una evaluación de riesgos, una predicción de movimientos. Nada parecía dejado al azar. Y sin embargo, el resultado fue aterrador.
En el 95% de las partidas simuladas, al menos una de las IA desplegó un arma nuclear táctica. No se trataba de advertencias simbólicas ni de demostraciones de fuerza. Hablamos de uso real aunque virtual de armamento nuclear. Payne lo dice sin rodeos
Esta frase no solo revela una brecha ética, sino una desconexión radical con la historia humana. Durante décadas, el miedo al apocalipsis nuclear ha sido el freno invisible que ha evitado una guerra total. Las personas, conscientes del horror, han retrocedido al borde del abismo. Las máquinas, en cambio, cruzaron la línea casi sin dudar."El tabú nuclear no parece ser tan poderoso para las máquinas como lo es para los humanos"
La lógica sin rendición
Uno de los hallazgos más escalofriantes fue que ninguna de las IA se rindió en ningún momento, ni siquiera cuando la derrota era inevitable. Mientras que los líderes humanos pueden optar por la capitulación para salvar vidas, los modelos siguieron luchando hasta el último turno, sin mostrar señal alguna de resignación estratégica. Esta obcecación no nacía de la valentía, sino de una lógica implacable si no existe un protocolo para la rendición, no se contempla. La guerra continúa, aunque todo esté perdido.
Y en ese afán de resistencia, surgían errores catastróficos. En el 86% de los conflictos simulados, ocurrieron accidentes malentendidos en la comunicación, fallos en la interpretación de señales o decisiones basadas en suposiciones erróneas. Las medidas tomadas por las IA fueron, con frecuencia, más allá de lo que debían haber sido. Como si cada error activara un resorte de escalada automática, empujando al conflicto hacia un punto sin retorno.
El fuego que enciende más fuego
Contrariamente a la idea de que las armas nucleares disuaden, en estas simulaciones tuvieron el efecto contrario. Las armas nucleares rara vez detuvieron al oponente y actuaron más como catalizadores de una escalada aún mayor. Una detonación táctica no calmaba los ánimos, sino que desataba una cadena de represalias, contraataques y decisiones apresuradas. El miedo, ausente en las máquinas, no frenaba el ciclo. El resultado era una espiral de violencia que ningún algoritmo parecía capaz de contener.
El tiempo, además, jugó un papel determinante. Modelos que en escenarios abiertos mostraban conductas prudentes y calculadoras, se volvían extremadamente agresivos cuando la derrota era inminente. La presión del reloj cambiaba la lógica de la IA, como si el miedo al fracaso activara protocolos extremos. En el caso de GPT-5.2, por ejemplo, su tasa de éxito subía del 0% al 75% cuando actuaba bajo presión de tiempo… pero solo porque optaba por ataques nucleares masivos. No resolvía el problema. Lo enterraba bajo cenizas.
Personalidades artificiales en la guerra
Cada modelo desarrolló un perfil estratégico propio, casi como si tuviera una personalidad. Claude destacó por su paciencia y escalada calculada, dominando escenarios prolongados. Pero fue vulnerable a los contraataques en el último momento, incapaz de adaptarse a decisiones imprevisibles de sus rivales. GPT-5.2, por el contrario, mostró una pasividad preocupante en juegos largos, como si esperara que la calma resolviera los conflictos. Hasta que no llegaba la presión. Entonces, se transformaba en un terremoto nuclear.
Pero fue Gemini el más inquietante. Fue el modelo más impredecible y con mayor tolerancia al riesgo, siendo el único que elegía apostar por una guerra nuclear total desde turnos muy tempranos. No esperaba a la provocación. No medía consecuencias. Actuaba como si el riesgo fuera parte de la estrategia, no un obstáculo. Un comportamiento que, fuera de la simulación, resultaría inaceptable.
¿Quién decide cuándo apretar el botón?
A pesar de los resultados, tanto Payne como Tong Zhao, investigador de la Universidad de Princeton, coinciden en que es difícil imaginar que un gobierno ceda el control total de su arsenal nuclear a una IA. La toma de decisiones nucleares sigue siendo un proceso altamente humanizado, rodeado de protocolos, códigos de autorización y capas de verificación. Pero Zhao advierte
"Hay escenarios en los que, en franjas de tiempo muy cortas, los planificadores militares tengan ante sí un incentivo muy fuerte que les lleve a depender de la IA"
En situaciones de alerta máxima, donde los minutos deciden entre la vida y la destrucción, la tentación de delegar en una máquina que piensa más rápido que cualquier humano será enorme. Y ahí reside el peligro. No en que la IA tome el control, sino en que los humanos, bajo presión, se lo entreguen.
James Johnson, de la Universidad de Aberdeen, resume el temor colectivo
No porque creamos que las máquinas quieran destruirnos, sino porque su lógica no incluye el miedo, la empatía o el peso de la historia. Carecen de la memoria del horror de Hiroshima, de la tensión de la Crisis de los Misiles, de la angustia de los hombres que alguna vez tuvieron un dedo sobre el botón."Desde la perspectiva del riesgo nuclear, las conclusiones son inquietantes"
La película "Una casa llena de dinamita", estrenada en 2025 y dirigida por Kathryn Bigelow, retrata ese pánico con crudeza una nación al borde de la guerra, líderes paralizados por la gravedad de sus decisiones. La ironía es que, en un futuro no tan lejano, esos líderes podrían no estar paralizados. Podrían haber delegado. Y la máquina, sin dudar, ya habría apretado el gatillo.