En 24 horas, la IA militar de EE UU ayudó a atacar 1.000 objetivos en Irán: el doble que Irak en 2003

"Depender excesivamente de ellos en esta etapa es una receta para la catástrofe"

25 de marzo de 2026 a las 10:44h
En 24 horas, la IA militar de EE UU ayudó a atacar 1.000 objetivos en Irán: el doble que Irak en 2003
En 24 horas, la IA militar de EE UU ayudó a atacar 1.000 objetivos en Irán: el doble que Irak en 2003

Justo después de las cinco de la tarde del 27 de febrero, el Gobierno de Donald Trump lanzó una medida que resonó más allá de los mercados y las relaciones internacionales declaró a Anthropic, una de las start-ups de inteligencia artificial más valiosas del mundo, con una valoración de 380.000 millones de dólares, como una amenaza para la cadena de suministro nacional. Lo incluyeron en una lista negra. No fue una decisión técnica ni económica. Era política, simbólica, y profundamente estratégica. Anthropic, que hasta entonces había mantenido contratos clave para proveer servicios de IA al ejército estadounidense, se había negado a cooperar en dos líneas rojas tecnológicas la vigilancia ciudadana masiva y el desarrollo de armas totalmente autónomas. Esa negativa, en aquel momento, costó cara.

La primera guerra plenamente alimentada por IA

Unas ocho horas después de aquella decisión, Estados Unidos bombardeó Irán. En las primeras 24 horas, el sistema Maven Smart System una plataforma de control de misiones impulsada por inteligencia artificial ayudó a identificar y atacar 1.000 objetivos. Es una cifra que, según cálculos del Comando Central de EE UU (Centcom), **equivale al doble de los objetivos alcanzados durante todo el primer día de la invasión de Irak en 2003**. En solo diez días, la cifra ascendió a 5.000 objetivos destruidos. Fue la mayor prueba de fuego de la tecnología de IA en el campo de batalla. Y, por primera vez, drones semiautónomos, baratos y desechables, jugaron un papel central. El comandante de las fuerzas estadounidenses en la región los calificó sin tapujos "indispensables".

Maven ya había estado presente en escenarios previos apoyó a Ucrania en 2022 y luego participó en operaciones contra Irak, Siria y los hutíes. Pero en Irán se cruzó un umbral. La IA no solo aceleró la toma de decisiones; comenzó a definirlas. Timothy Hawkins, portavoz del Centcom, lo resume con cuidado

"En resumen, estas herramientas ayudan a los líderes los humanos a tomar decisiones más inteligentes más rápido" - Timothy Hawkins, portavoz del Centcom

Pero detrás de esa frase diplomática late una realidad más turbia los algoritmos no solo filtran datos; ahora generan "puntos de interés", es decir, proponen objetivos. Y en contextos de alta tensión, esa sugerencia puede convertirse en orden antes de que un operador parpatee.

El precio humano y la deriva algorítmica

Hasta el lunes pasado, más de 1.300 civiles habían muerto en los bombardeos aéreos en Irán. Entre ellos, 175 en un ataque a una escuela de niñas. Según funcionarios iraníes, el misil involucrado fue un Tomahawk, guiado al menos parcialmente por inteligencia obsoleta. El Pentágono no ha confirmado si hubo intervención de IA. Pero la duda ya es parte del problema. Porque si un error algorítmico provoca una masacre, ¿quién responde? ¿El programador? ¿El comandante? ¿El algoritmo mismo?

Una persona cercana a las operaciones militares en la región no dudó en señalar "Irán es un asombroso preludio de lo que podría ocurrir en Taiwán en un ataque chino". Estamos ante un nuevo tipo de guerra, donde la velocidad es el arma principal, y donde las máquinas no solo apoyan, sino que anticipan. Y eso, según quienes han visto los ensayos, da miedo. "No hay nada como ver a una máquina apuntar", dice un colaborador del Departamento de Defensa. "Tiene un aspecto alienígena, una sensación de otro mundo. Es aterrador".

El nacimiento de Maven y la huida de Google

El programa Maven nació en 2017, con un objetivo modesto en apariencia usar algoritmos de visión artificial para analizar vídeos de drones y detectar objetos. Convertir montañas de datos en inteligencia útil. Google fue uno de los primeros socios. Pero cuando miles de empleados descubrieron que su trabajo podía estar alimentando operaciones letales, protestaron. La empresa se retractó el uso sería "no ofensivo". Finalmente, no renovó el contrato. Palantir, en cambio, asumió el reto. Desarrolló Maven Smart System con apoyo de Amazon que aportó computación en la nube segura, Microsoft y Clarifai. Hoy, el sistema se utiliza en todos los comandos militares de EE UU, y desde el año pasado, también en la OTAN.

En 2022, el equipo Maven empezó a recolectar imágenes de buques chinos en el Pacífico. No era espionaje; era entrenamiento. Cada foto, cada video térmico, cada patrón de movimiento se convirtió en alimento para algoritmos que algún día podrían guiar drones autónomos contra destructores del Ejército Popular de Liberación. Microsoft, Clarifai y AeroVironment se convirtieron en socios clave. "Ahora estamos vigilando constantemente al ejército chino para obtener datos de entrenamiento para la IA", admitió un funcionario de Defensa. En verano, altos mandos militares vieron vídeos en los que la IA identificaba automáticamente buques de guerra chinos. El salto era evidente. Pero también lo eran los fallos software retrasado, modelos que no reconocían varios buques a la vez, lentes empañadas por salpicaduras. La guerra no espera a que la tecnología esté lista.

Replicator, Whiplash y el futuro de los enjambres letales

En 2023, Kathleen Hicks, entonces subsecretaria de Defensa, presentó Replicator un programa para desplegar miles de drones autónomos en caso de conflicto con China. El objetivo era claro estar listos para 2027, el año en que muchos funcionarios estadounidenses creen que Pekín podría invadir Taiwán. Para ello, se pusieron en marcha proyectos como Goalkeeper drones que pueden volar, seleccionar objetivos y atacar sin intervención humana y Whiplash, una idea tan absurda como escalofriante convertir motos acuáticas en bombas robotizadas. "EE UU tiene muchas motos acuáticas, así que es genial que podamos convertirlas en armas", dijo alguien vinculado al programa. Ambos proyectos desaparecieron de los presupuestos oficiales tras el regreso de Trump, pero siguen vivos en documentos clasificados y presupuestos futuros, bajo nombres distintos.

En enero, el Gobierno lanzó un concurso con un premio de 100 millones de dólares quería herramientas que tradujeran órdenes verbales de comandantes en instrucciones para enjambres de drones. Entre los seleccionados OpenAI, Palantir y SpaceX. Las fases posteriores exigen desarrollar capacidades de "compartición de información sobre objetivos" y, finalmente, "lanzamiento hasta la eliminación". Es decir, el ciclo completo de un dron asesino autónomo.

Jack Shanahan, general retirado y exdirector del proyecto Maven, lo advierte con gravedad

"Depender excesivamente de ellos en esta etapa es una receta para la catástrofe" - Jack Shanahan, general retirado y exdirector del proyecto Maven

Y va más lejos "Ningún sistema de misiles de largo alcance, en su forma actual, debería considerarse para su uso como sistema de armas autónomo".

Estamos entrando en una era en la que las decisiones de vida o muerte se tomarán en fracciones de segundo, mediadas por algoritmos que aprenden, se adaptan y, a veces, se desvían. Jane Pinelis, supervisora de pruebas en Maven, lo dijo con crudeza en 2023 la perfección en estos sistemas es imposible. Entre fallos de datos, errores de entrenamiento y la deriva de los modelos, lo único seguro es que algún día fallarán. La pregunta no es si estarán listos, sino si sabremos detenerlos a tiempo.

Sobre el autor
Redacción
Ver biografía