Chongqing: una cámara por cada seis habitantes y un Skynet que detecta desafección política

“La decisión de conceder asilo no pertenece al dominio de lo computable”

21 de febrero de 2026 a las 10:35h
Chongqing: una cámara por cada seis habitantes y un Skynet que detecta desafección política
Chongqing: una cámara por cada seis habitantes y un Skynet que detecta desafección política

En Chongqing, una ciudad china con 15 millones de personas, hay tantas cámaras de vigilancia que podrían mirarte a los ojos dos veces por cada paso que das. En 2019 ya había una por cada seis habitantes. Hoy, esa cifra podría haberse duplicado. Este no es un escenario de ciencia ficción, sino una realidad que ya forma parte del Proyecto Skynet, el sistema de control estatal que utiliza reconocimiento facial, inteligencia artificial y millones de sensores para anticiparse a cualquier comportamiento considerado una amenaza. Su objetivo no es solo prevenir el crimen, sino también detectar la desafección política. En China, pensar distinto puede convertirse en un patrón detectable.

El reflejo europeo

A menos de una hora de Madrid, en las fronteras de la Unión Europea, ocurre algo que no parece tan lejano. Aquí no hay un Skynet declarado, pero sí una red creciente de tecnologías que escudriñan, analizan y deciden quién entra y quién queda fuera. Mientras Europa se presenta como baluarte de los derechos humanos, reproduce en silencio las mismas herramientas de control que critica en otros regímenes. La diferencia está en el envoltorio no se llama opresión, se llama innovación. No se habla de vigilancia, sino de seguridad inteligente.

Uno de los ejemplos más reveladores es el proyecto iBorderCtrl, desarrollado entre 2016 y 2019. Su misión detectar si un solicitante de acceso a Europa miente. ¿Cómo? A través de un asistente virtual que analiza microexpresiones faciales, el tono de voz y el comportamiento durante un interrogatorio automatizado. El sistema fue probado en Hungría, Grecia y Letonia. Y, según la Comisión Europea, fue un éxito rotundo. Tanto que ha servido de modelo para una nueva generación de controles fronterizos.

"La decisión de conceder asilo, de proteger o no a alguien, no pertenece al dominio de lo computable. Es un acto humano precisamente porque implica empatía, memoria, interpretación del contexto y una deliberación moral que no puede reducirse a patrones." - Asistente de IA, apoyo al informe de porCausa

Las fronteras inteligentes

La tercera generación del control migratorio ya está aquí. Tras las vallas físicas y la externalización de fronteras a países del sur, Europa ha dado un salto las fronteras ahora son inteligentes. Operan con algoritmos, aprenden de datos y deciden con velocidad. Su campo de acción se extiende desde las regiones de origen hasta los centros de acogida más remotos. No esperan a que llegues te anticipan.

Estos sistemas usan análisis predictivo para identificar rutas, vigilan con drones y sensores autónomos, comparten información biométrica entre países y clasifican a los migrantes según su nacionalidad, idioma o incluso su forma de hablar. Algunos aplican software espía como Cellebrite, desarrollado en colaboración con la industria militar de Israel, para extraer datos de los móviles de las personas sin su consentimiento. La promesa era que las máquinas serían neutrales. Pero las máquinas aprenden de los datos, y los datos nunca son inocentes.

En el fondo, los algoritmos no están diseñados para entender, sino para sospechar. Beben de una lógica de amenaza, no de acogida. Y así surgen perfiles de riesgo opacos, alertas automáticas para ciertas nacionalidades y sistemas que convierten la identidad humana en un conjunto de coordenadas faciales. La tecnología no es mala por naturaleza, pero puede ser cruel cuando sirve a una política de exclusión.

El negocio de la exclusión

Detrás de esta revolución tecnológica hay un mercado en auge. En los últimos siete años, las administraciones europeas han firmado al menos 700 contratos públicos vinculados al control migratorio. El gasto asciende a 541 millones de euros. Y casi la mitad de ese dinero se adjudicó sin concurso público o con competencia limitada. Diez empresas se han llevado el 73% del pastel. Entre ellas, nombres como Escribano, Telefónica y Thales, gigantes que han encontrado en la gestión migratoria un nuevo nicho de crecimiento.

El control migratorio ya no es solo una política, es una industria. Una industria que no necesita rendir cuentas, porque opera en la sombra de la seguridad nacional. Y que, mientras tanto, deja fuera a quienes más necesitan protección. Porque hay algo que los algoritmos no resuelven el colapso de las solicitudes de asilo. En Alemania, España o Italia, cientos de miles de personas viven en el limbo, sin respuesta, sin derechos. La tecnología ha llegado para vigilar, pero no para proteger.

El dilema no es tecnológico, es político

Este no es un problema de software defectuoso o de datos sesgados, aunque eso también exista. El verdadero problema es que se ha delegado una decisión profundamente humana en máquinas que no pueden sentir empatía. La automatización de la frontera no resuelve la injusticia, la entierra bajo capas de código. Y todo esto ocurre porque el laboratorio de la inteligencia artificial privilegia la seguridad sobre la protección, el control sobre la acogida, la sospecha sobre el derecho.

El riesgo no está solo en lo que ya pasa a los migrantes. Está en lo que podría pasar mañana a cualquiera. Porque la tiranía tecnológica que hoy padecen los más vulnerables puede extenderse a otros colectivos. Prueben a imaginar que su Gobierno analiza sus redes sociales para decidir si pueden viajar. O que sus datos biométricos están en manos de una empresa privada dedicada a la seguridad. ¿Cuánta libertad estarían dispuestos a ceder por sentirse seguros?

Ordenar la frontera

No se trata de rechazar la tecnología. Se trata de gobernarla. Y eso solo es posible con reglas claras. El reglamento sobre inteligencia artificial aprobado por la UE en 2024 es un paso en esa dirección. Clasifica la gestión de fronteras como un sector de alto riesgo. Obliga a documentar los datos de entrenamiento, a crear sistemas explicables y a someterlos a pruebas de impacto en derechos humanos. Países como Nueva Zelanda ya aplican modelos de transparencia algorítmica que podrían servir de ejemplo.

Pero las normas no bastan si no hay voluntad política. Es fundamental que los avances tecnológicos se sometan al control de instituciones democráticas. Imponer transparencia, garantizar el control humano, establecer auditorías independientes. Devolver la decisión al ámbito político. Porque al final, la tecnología puede servir a la democracia, pero solo si la democracia conserva la capacidad de decir no y cómo.

Sobre el autor
Redacción
Ver biografía