La IA militar ya toma decisiones de vida o muerte en zonas de conflicto: ¿quién asume las consecuencias?

"La Inteligencia Artificial es esencial, pero el componente ético es muy importante", afirma Robles

06 de febrero de 2026 a las 20:05h
La IA militar ya toma decisiones de vida o muerte en zonas de conflicto: ¿quién asume las consecuencias?
La IA militar ya toma decisiones de vida o muerte en zonas de conflicto: ¿quién asume las consecuencias?

La inteligencia artificial ya no es una promesa del futuro. Está aquí, transformando hospitales, fábricas, escuelas y también los campos de batalla. Por eso, la tercera cumbre mundial sobre Inteligencia Artificial Responsable no se celebra en Silicon Valley ni en Bruselas, sino en La Coruña, en el corazón de Galicia, en el Palacio de Exposiciones y Congresos, donde esta semana se está decidiendo cómo evitar que las máquinas tomen decisiones de vida o muerte sin supervisión humana.

Un escenario de tensión ética

Entre miércoles y jueves, representantes de decenas de Estados, organizaciones internacionales y expertos en tecnología, derecho y ética se han reunido con un propósito claro trazar límites. No se trata de frenar el progreso, sino de garantizar que la inteligencia artificial en el ámbito militar no escape al control humano. Es una distinción sutil, pero crucial. Las armas autónomas, capaces de identificar objetivos y disparar sin intervención directa, ya no son ciencia ficción. Son prototipos en laboratorios, drones en zonas de conflicto, sistemas de defensa que aprenden por sí mismos.

El fantasma de las máquinas que deciden matar ronda esta cumbre. Y no es paranoia. Es una consecuencia lógica de un avance tecnológico que avanza más rápido que las normas que deberían regularlo. Si una inteligencia artificial comete un error devastador, ¿quién responde ante la historia? El desarrollador, el militar que la activó, el gobierno que la desplegó? Estas preguntas no tienen respuesta clara, y por eso eventos como este no son meras formalidades diplomáticas, sino urgencias éticas.

La voz de España

Margarita Robles, ministra de Defensa, intervino en el acto con un mensaje que buscó equilibrar fuerza y prudencia.

"La Inteligencia Artificial es esencial y fundamental en cualquier escenario, pero en estos momentos difíciles el componente ético es muy importante"

"Nosotros creemos en la defensa, pero en la defensa de la paz y de los valores éticos"

Frases que no suenan solo a política, sino a advertencia. España, históricamente reacia a participar en conflictos armados de forma ofensiva, está posicionándose como un actor clave en la regulación ética del uso militar de la IA.

Robles no está sola. En esta cumbre, muchos países pequeños o neutrales han tomado la delantera, impulsando acuerdos que exigen transparencia, rendición de cuentas y siempre, el llamado "factor humano en la cadena de mando". Porque dejar que una máquina decida si atacar o no es cruzar una línea que muchos consideran irreversible.

De La Haya a La Coruña

Esta tercera edición no viene de la nada. En 2023, la primera cumbre en La Haya puso sobre la mesa el riesgo de una carrera armamentística algorítmica. Un año después, en Seúl, se profundizó en los riesgos de los sistemas autónomos en entornos urbanos. Ahora, en Galicia, el foco se ha estrechado no basta con hablar de riesgos, hay que construir consensos vinculantes.

El escenario elegido no es casual. La Coruña, con su historia marítima, su mirada al Atlántico, simboliza un cruce de caminos. Y eso es exactamente lo que vive la humanidad frente a la IA militar una encrucijada. Podemos normalizar el uso de armas autónomas o podemos trazar fronteras claras antes de que sea demasiado tarde.

Los debates han girado en torno a protocolos de prueba, auditorías internacionales y la creación de mecanismos de alerta temprana. Pero también ha habido espacio para la ironía, esa que nace del absurdo gobiernos que exigen ética en la IA mientras despliegan algoritmos opacos en sus sistemas de vigilancia ciudadana. La coherencia, en este campo, es un lujo que pocos pueden permitirse.

El futuro no es inevitable

Lo que ocurra en estas jornadas puede parecer técnico, reservado a especialistas. Pero no lo es. Cada decisión aquí tomada afectará cómo se libran las guerras en las próximas décadas, y por extensión, cómo se protege la paz. No se trata de prohibir la tecnología, sino de domesticarla. Como hicimos con las armas químicas, con las minas antipersona, con los satélites de ataque.

La inteligencia artificial no tiene moral. Pero quienes la diseñan y la usan sí. Y en ese margen, en esa responsabilidad, reside la esperanza. Que esta cumbre no quede en comunicados solemnes, sino que marque un antes y un después. Que La Coruña pase a la historia no solo por su torre, sino por haber sido el lugar donde la humanidad dijo hasta aquí.

Sobre el autor
Redacción
Ver biografía