Más de 70 países debaten en la ONU mientras drones ya atacan sin intervención humana en tiempo real

En Ucrania, drones turcos con caras pintadas de esqueletos patrullan el cielo, detectan movimientos y atacan posiciones sin intervención humana en tiempo real.

17 de marzo de 2026 a las 14:35h
Más de 70 países debaten en la ONU mientras drones ya atacan sin intervención humana en tiempo real
Más de 70 países debaten en la ONU mientras drones ya atacan sin intervención humana en tiempo real

En una sala de reuniones de Ginebra, mientras los representantes de más de setenta países debaten bajo los techos neutrales de Naciones Unidas, algo se mueve en el aire. No son solo palabras. Es el peso de una decisión que podría cambiar para siempre la forma en que se libran las guerras. Las negociaciones sobre armas autónomas han entrado en un punto crítico, un momento en el que el reloj avanza más rápido que la diplomacia. Durante años, bajo el paraguas de la Convención sobre Ciertas Armas Convencionales, se han acumulado informes, advertencias, propuestas. Pero hoy, tras una década de discursos y simulaciones, no hay consenso. Y mientras tanto, la tecnología no espera.

La guerra ya no necesita un gatillo humano

En Ucrania, drones turcos con caras pintadas de esqueletos patrullan el cielo, detectan movimientos y atacan posiciones sin intervención humana en tiempo real. En Gaza y Libia, sistemas de inteligencia artificial analizan flujos de datos para identificar objetivos en cuestión de segundos. No es ciencia ficción. Es el presente. Y lo que está en juego no es solo quién tiene más drones, sino quién cede el control de las decisiones de vida o muerte a algoritmos que aprenden, se adaptan y actúan en milisegundos.

Algunos expertos ya lo llaman la "Tercera Revolución en la Guerra". La primera fue la pólvora, que rompió el orden medieval. La segunda, las armas nucleares, que pusieron en jaque la supervivencia de la especie. Esta tercera no depende de explosivos, sino de código. De líneas de programación que permiten a máquinas coordinarse en enjambres, tomar decisiones tácticas y atacar sin órdenes directas. La carrera armamentista ya no se mide en kilótoneladas, sino en eficiencia algorítmica.

El bloqueo diplomático y las potencias que no quieren frenar

Un grupo creciente de países entre ellos Austria, México y Sudáfrica exige un tratado internacional vinculante que prohíba o limite estrictamente las armas letales autónomas. Quieren una línea roja clara que ningún sistema decida matar sin supervisión humana significativa. Pero otras potencias, como Estados Unidos, China, Rusia, Israel y Reino Unido, se resisten. Argumentan que el marco jurídico actual, basado en el Derecho Internacional Humanitario, es suficiente. Sostienen que nuevas restricciones afectarían su competitividad estratégica. Mientras tanto, sus arsenales avanzan. Desarrollan tecnologías que ya permiten identificar, seleccionar y atacar objetivos con un grado de autonomía sin precedentes.

Y aquí surge una contradicción inquietante. El desarrollo tecnológico avanza a ritmo exponencial, pero la regulación se mueve a paso diplomático, lento, fragmentado. La campaña Stop Killer Robots lo advierte con claridad el tiempo juega en contra. Cada día que pasa sin un acuerdo, cada prueba de microdrones autónomos en campo de batalla, cada algoritmo mejorado en laboratorios militares, erosiona la posibilidad de frenar esta deriva.

El choque entre ética y estrategia

El reciente enfrentamiento entre el Gobierno de Estados Unidos y la empresa Anthropic revela una grieta profunda. La compañía, conocida por su enfoque ético en el desarrollo de inteligencia artificial, se negó a retirar restricciones internas que impedían el uso militar irrestricto de su modelo. Washington, a su vez, comenzó a considerar esa postura como un riesgo para su cadena de suministro tecnológica. No se trataba ya de limitar capacidades, sino de forzar su expansión.

Este episodio marca un antes y un después. Por primera vez, una potencia global presiona no para limitar capacidades, sino para ampliar el margen de autonomía letal de un sistema de IA. No busca frenar a los algoritmos, sino empujarlos hacia el campo de batalla. Y lo hace no solo con armamento pesado, sino con decisiones que antes pertenecían al juicio humano quién es un combatiente, quién es un civil, cuándo se dispara.

Errores algorítmicos que cuestan vidas

Los sistemas de reconocimiento facial ya han fallado en contextos civiles. Han confundido activistas con delincuentes, han negado créditos por sesgos raciales, han encarcelado inocentes. Las tasas de error, aunque pequeñas en porcentaje, se multiplican en impacto cuando se trasladan al ámbito militar. Un algoritmo que confunda un camión de suministros con un objetivo militar puede desencadenar una masacre. Y lo más peligroso los operadores humanos, bajo estrés, tienden a confiar ciegamente en las decisiones de las máquinas. Es lo que los psicólogos llaman "automation bias" la tendencia a dar por correcta una sugerencia algorítmica, aunque sea opaca, difícil de explicar, o claramente errónea.

Experimentos recientes han mostrado tasas de error inasumibles incluso en sistemas avanzados. Un algoritmo entrenado para distinguir tanques de trigo en campos puede fallar si cambia la iluminación. Uno diseñado para detectar amenazas en tiempo real puede interpretar una señal falsa como una ofensiva inminente. Delegar la violencia en sistemas que no pueden razonar, solo calcular, es como entregar el mando de un submarino a un reloj inteligente.

El riesgo de que la guerra llegue a la calle

Pero el peligro no termina en el frente. Hay un escenario aún más inquietante que estas tecnologías salgan del control estatal y se filtren al mercado civil. Imagina microdrones letales, del tamaño de una paloma, capaces de volar en enjambres coordinados, programados para atacar objetivos específicos. Si las legislaciones sobre posesión de armas son permisivas, si no hay controles de exportación estrictos, podrían acabar en manos de criminales, grupos extremistas o individuos con motivaciones personales. Miles de personas dotadas de armas autónomas, difíciles de rastrear, capaces de actuar sin rastro humano directo.

Ya no se trataría de ejércitos enfrentados, sino de una fragmentación letal del poder. Un mundo donde la muerte puede ser delegada no solo a máquinas del Estado, sino a dispositivos comprados en línea, programados en un garaje, lanzados sin advertencia.

La pregunta que nadie quiere responder

Manuel Ballbé, profesor y especialista en seguridad humana, lo plantea con una claridad que corta el aire

"la seguridad humana solo puede garantizarse si los sistemas de seguridad incluidos aquellos mediados por tecnología avanzada trabajan con la sociedad y no sobre la sociedad"

 

Y cita a Mary Parker Follett, pensadora política del siglo XX hay que decidir si el poder actúa "sobre" o "con" los ciudadanos. En el fondo, ese es el dilema. ¿Queremos sistemas de seguridad que nos protejan participando con nosotros, o que nos controlen por encima de nosotros? Porque cuando una máquina decide matar sin supervisión humana significativa, sin deliberación pública, sin responsabilidad democrática, estamos trasladando decisiones de vida o muerte a una esfera opaca, inalcanzable, irresponsable.

El debate en Ginebra no es solo técnico. Es ético, político, humano. No se trata de si podemos construir armas autónomas. Se trata de si debemos. Y la respuesta, desde una perspectiva de seguridad humana, parece clara ningún sistema letal autónomo puede considerarse legítimo si rompe el vínculo entre autoridad, ciudadanía y control democrático.

"El núcleo de la seguridad humana como la entendemos en la Cátedra más prevención, más humanidad, más participación es incompatible con delegar la violencia en algoritmos opacos."

Sobre el autor
Redacción
Ver biografía