La guerra en Irán no empezó con un ultimátum diplomático ni con un despliegue masivo de tropas. Comenzó con un clic. O más bien con miles de ellos, ejecutados a la velocidad del algoritmo. En las primeras 24 horas de la operación "Furia Épica", el 28 de febrero, las fuerzas armadas de Estados Unidos e Israel afirmaron haber abatido hasta 1.000 objetivos. No fue un despliegue convencional fue el debut en escena de una nueva forma de hacer guerra, donde la inteligencia artificial no solo asiste, sino que impulsa, sugiere, prioriza y, en la práctica, decide. Y entre esos 1.000 blancos, uno marcó un antes y un después la escuela primaria Shajareh Tayyebeh, en Minab, donde murieron 175 niños, en su mayoría niñas, tras un bombardeo que nadie ha podido justificar plenamente.
El algoritmo y la escuela
Según fuentes anónimas citadas por Semafor, las muertes en Minab no fueron causadas por fallos en la IA, sino por errores humanos. Una afirmación que suena casi irónica. Porque, ¿qué significa "error humano" cuando el sistema que guía la toma de decisiones es opaco, acelerado y diseñado para sobrepasar la capacidad de comprensión de cualquier operador? Craig Jones, experto en derecho bélico y autor de *The War Lawyers*, no se lo traga "Me resultaría difícil creer que la IA no participara de alguna forma en la matanza, dada su integración en la cadena de mando". Y tiene razón bastaba con observar la escuela durante 20 minutos con un dron para ver a las niñas en el patio, a los padres despidiéndolas, a los profesores entrando. "Cualquier persona razonable sabría que no eran militares iraníes", dice Jones. Pero en la sala de control, a miles de kilómetros, no había una persona razonable observando. Había una pantalla, un puntito marcado como "objetivo de alto valor" y una IA que decía "prioridad máxima".
Palantir y Anthropic los nuevos arquitectos de la guerra
Detrás de esa pantalla están dos empresas privadas que hoy modelan el futuro de los conflictos bélicos. Palantir, a través del sistema Maven Smart, evolución del Project Maven del Departamento de Defensa, ya es un socio estratégico del Pentágono. Su tecnología no solo identifica patrones; crea grafos de relación entre fábricas, cuarteles, comandancias, detectando conexiones invisibles para el ojo humano. Pero el salto cualitativo llegó con Anthropic y su modelo de lenguaje Claude. "Al incorporar Claude, los humanos pueden utilizar el lenguaje natural para establecer un diálogo con Maven", explica Nuria Oliver, doctora del MIT y directora de ELLIS Alicante. Puedes preguntarle "¿Dónde está el cuartel general del general X?", y el sistema te lo muestra, te lo contextualiza, te lo prioriza. Es como tener un comandante artificial que responde en segundos.
Pero esta alianza no fue pacífica. Dario Amodei, fundador de Anthropic, trazó dos líneas rojas ante el Gobierno de Donald Trump no usar su tecnología para espionaje masivo ni para gestionar armas autónomas sin supervisión humana. Trump respondió cancelando todos los contratos con Anthropic en seis meses y tildando a sus ejecutivos como "izquierdistas desquiciados". Ocho horas después, ordenó el bombardeo de Irán. Una coincidencia simbólica el rechazo a la ética como preludio de la guerra algorítmica.
La velocidad como arma
El Pentágono ya no habla de días ni de horas para planificar operaciones. Habla de segundos. Brad Cooper, jefe del Mando Central del Ejército estadounidense, lo dijo el 11 de marzo "Las herramientas avanzadas de IA pueden convertir procesos que antes llevaban horas y, a veces, incluso días, en cuestión de segundos". Y aunque insiste en que "los humanos siempre tomarán las decisiones finales", la realidad es más sutil. Cuando un sistema genera 1.000 objetivos en minutos, ¿quién revisa cada uno? ¿Quién cuestiona la puntuación que asigna la IA a un edificio, basada en patrones de movimiento, horarios, o incluso en datos de redes sociales? "Cuando un sistema dice "todos son válidos", ¿tenemos capacidad humana para revisarlos uno por uno? La respuesta es no", advierte Jones.
Y eso es exactamente lo que temía Lucy Suchman, profesora de Antropología de la Ciencia y la Tecnología que la velocidad y la opacidad anulen el control humano. "El espacio para un control humano significativo ha desaparecido", afirma. Y recuerda que en Gaza ya se usaron sistemas que puntuaban individuos como "sospechosos" según su comportamiento, una práctica que en la Unión Europea está prohibida. Pero allí, en el campo de batalla digital, no hay regulaciones que valgan.
¿Dónde está el límite?
El problema no es que la IA cometa errores. Es que los errores se multiplican a velocidad algorítmica. Es que los comandantes ya no deciden; ratifican. Es que los abogados militares, responsables de velar por el Derecho Internacional Humanitario, están siendo despedidos o apartados. Jones revela que el Centro de Excelencia de Protección de Civiles, creado bajo Biden, fue cerrado bajo el segundo mandato de Trump. "Al eliminar a los abogados de la mesa de decisiones, dejas el camino libre a los algoritmos, que no son transparentes".
Y mientras tanto, la carrera continúa. Katrina Manson, periodista especializada en Project Maven, señala que los ataques en Irán son "la mayor prueba para esta tecnología hasta la fecha". El objetivo del Pentágono es claro identificar y seleccionar 1.000 objetivos no en un día, sino en una hora. La estrategia oficial del Departamento de Defensa lo dice sin ambages "La IA militar va a ser una carrera en el futuro previsible, y por lo tanto la velocidad gana… Debemos aceptar que los riesgos de no avanzar lo suficientemente rápido superan a los riesgos de una alineación imperfecta".
El futuro ya está aquí
En Ucrania, ya se desarrollan pequeños drones que buscan y matan por sí solos. Peter Asaro, cofundador del Comité Internacional para el Control de Armas Robóticas, advierte "Ya están desarrollándose en Ucrania". Y el riesgo no es solo técnico, sino político que comandantes que no entienden cómo funciona la IA deleguen en ella decisiones morales. Que gobiernos como el de España apoyen regulaciones, pero que la ONU se quede atrás. Que la aparición de ChatGPT haya concienciado al público, pero que los militares ya estén diez pasos adelante.
La guerra del futuro no será ganada por el que tenga más soldados, sino por el que piense más rápido. O, mejor dicho, por el que deje que su máquina piense por él. Y en ese futuro, una escuela en Minab no es un error. Es un síntoma. Un aviso. Porque si no regulamos ahora cómo la IA decide quién vive y quién muere, pronto no quedará nadie con tiempo ni con voluntad para cuestionarlo. Igual que regulamos las armas nucleares, tendremos que regular la inteligencia artificial. No por miedo a la tecnología, sino por respeto a la humanidad.