Click izquierdo, click derecho: la IA ya identifica objetivos y propone estrategias de ataque en segundos

La guerra entra en la era algorítmica con sistemas como Project Maven, que procesan datos para dirigir ataques. Ucrania actúa como laboratorio mientras la automatización redefine la velocidad y la escala de los conflictos.

22 de abril de 2026 a las 18:33h
Click izquierdo, click derecho: la IA ya identifica objetivos y propone estrategias de ataque en segundos
Click izquierdo, click derecho: la IA ya identifica objetivos y propone estrategias de ataque en segundos

La guerra ya no se libra solo con soldados, tanques o aviones. Hoy, los conflictos se aceleran desde centros de operaciones donde las decisiones no siempre surgen de largas deliberaciones, sino de clics. Un botón para marcar un objetivo, otro para autorizar un ataque. Así lo describen algunos responsables del Pentágono "Click izquierdo, click derecho". Son palabras frías, casi banales, que esconden una transformación radical la guerra entró en la era algorítmica.

El algoritmo como artillero

En el corazón de esta revolución está Project Maven, un programa que suena a ficción pero que ya opera en escenarios reales. Desarrollado por Palantir y alimentado con modelos de inteligencia artificial de Anthropic, el sistema procesa imágenes satelitales, datos de drones y señales de comunicación interceptadas. En segundos, identifica posibles objetivos camiones, baterías de artillería, movimientos de tropas. Y no solo los detecta propone estrategias, prioriza blancos y prepara planes de ataque. Lo hace con una velocidad que ningún equipo humano podría igualar.

Esto no es teoría. El conflicto en Ucrania se ha convertido en un banco de pruebas sin precedentes para estos sistemas. Drones comerciales modificados, embarcaciones no tripuladas con carga explosiva y plataformas de análisis de datos han demostrado que un ejército puede operar con una red descentralizada, ágil y letal. "El campo de batalla en Ucrania ha servido como un laboratorio para el mundo", afirma el analista Michael Horowitz. Lo que allí se aprende no se queda en la llanura euroasiática se exporta, se imita, se mejora.

La carrera por la inteligencia autónoma

Estados Unidos no está solo en esta carrera. China avanza a paso acelerado, desarrollando enjambres de drones coordinados por inteligencia artificial, capaces de atacar en formación o distraer defensas. Uno de sus proyectos más avanzados es el dron hipersónico WZ-8, diseñado para operar junto a cazas tripulados, actuando como un escudo o como un ojo en el cielo. Su objetivo es claro replicar y superar la Joint Fires Network estadounidense, esa red interconectada que permite a todas las unidades del ejército compartir datos en tiempo real.

Rusia, por su parte, ha evolucionado sus drones Lancet, esos pequeños cazadores de tanques que han causado estragos en el frente ucraniano. Ahora se habla de versiones con capacidades de selección autónoma de objetivos capaces de identificar un blanco y decidir atacarlo sin intervención humana directa. Mientras, empresas como Anduril en Estados Unidos impulsan la producción de drones autónomos a gran escala, con el respaldo explícito del Departamento de Defensa.

¿Quién pulsa el botón?

Con tanta automatización, surge una pregunta incómoda ¿hasta dónde llega el control humano? El general Jack Shanahan, arquitecto de Project Maven, lo advierte sin rodeos

"Existe el peligro de desplegar sistemas "no probados, inseguros y poco comprendidos"" - Jack Shanahan, impulsor de Project Maven

Son palabras cargadas de peso. Porque si un algoritmo falla, si malinterpreta una señal o escala un ataque por error, la responsabilidad se diluye. No hay un único culpable, solo líneas de código y decisiones tomadas en milisegundos.

Estudios de la RAND Corporation ya exploran escenarios en los que sistemas autónomos, diseñados para responder con rapidez, podrían desencadenar espirales de violencia que nadie previó. Un dron que ataca en represalia, una red que interpreta una maniobra defensiva como una agresión, un algoritmo que optimiza el daño sin comprender el contexto. La guerra autónoma no solo cambia cómo se combate, sino cómo se inicia.

Estamos entrando en una era donde las decisiones más graves pueden reducirse a interfaces gráficas y clics de ratón. La tecnología promete precisión, velocidad, eficiencia. Pero también plantea dilemas éticos que aún no hemos sabido responder. Porque en medio de tanta automatización, lo más humano sigue siendo lo más frágil la capacidad de juzgar, de dudar, de detenerse antes del último paso. Y eso, por ahora, no se puede programar.

Sobre el autor
Redacción
Ver biografía