Cuando Alberto Gago habla de inteligencia artificial, no lo hace desde la torre de marfil de un ingeniero aislado en un laboratorio. Habla como alguien que entiende que la IA no es solo código y algoritmos, sino decisiones que afectan vidas, empleos, derechos y democracias. A sus 39 años, Gago dirige la Agencia Española de Supervisión de la Inteligencia Artificial, una institución pionera no solo en España, sino en toda la Unión Europea. Su nombre, Aesia, suena a promesa la de un país que no quiere quedarse atrás cuando se trata de regular una tecnología que ya está entre nosotros, moldeando nuestro día a día.
Una agencia con alma europea y sede en La Coruña
La Agencia tiene su sede en La Coruña, una ciudad que no suele asociarse con el epicentro de la innovación digital. Pero ese detalle no es casualidad. Es una apuesta por la descentralización del conocimiento y el poder tecnológico. Hoy cuenta con 35 empleados, pero ya prevé crecer hasta los 50 antes de que acabe el año. Su equipo no es el típico batallón de informáticos. Tiene filólogos, sociólogos, economistas, juristas. Una mezcla inusual, quizás, en el mundo de la IA, pero esencial para entender sus efectos reales.
Nuestro equipo es joven y multidisciplinar. Tenemos ingenieros informáticos y de telecomunicaciones, pero también economistas, sociólogos, filólogos o juristas. Les necesitamos a todos para entender las implicaciones sociales de la IA
La inteligencia artificial no se puede gobernar solo con matemáticas. Se necesita sociología para entender cómo influye en la desigualdad, derecho para garantizar que no se vulneren derechos, lingüística para analizar cómo moldea el discurso. Y economía, claro, para evaluar su impacto en los mercados y el empleo. Gago lo tiene claro la regulación no puede ser un muro contra la innovación, sino un andamio que la oriente.
El mapa del riesgo qué se permite y qué no en la UE
El Reglamento Europeo de IA, en el que Gago participó como asesor durante la presidencia española de la UE, divide los sistemas de inteligencia artificial en cuatro categorías. La más preocupante es la de riesgo inaceptable. Aquí entran las tecnologías que manipulan el comportamiento cognitivo, las que establecen perfiles sociales automatizados o la identificación biométrica remota en tiempo real. Están directamente prohibidas. No se pueden usar. Punto.
Hasta ahora, desde febrero, solo están en vigor las obligaciones relativas a esos ocho sistemas prohibidos. Y aquí viene un dato tranquilizador no hay ningún sistema de IA prohibido operando en España. Al menos, no que la Aesia haya detectado. Eso no quiere decir que no haya vigilancia. Todo lo contrario. La agencia realiza un barrido constante monitorea la prensa, recibe denuncias, consulta directamente a proveedores y despliega un sistema automático que escudriña sectores clave como infraestructuras críticas, educación o acceso a servicios esenciales.
Hemos hecho una monitorización de miles de sistemas y estamos seguros de que no hay ningún sistema de IA prohibido en este momento en el mercado español
La frase suena contundente. Pero también es un recordatorio la ausencia de riesgo visible no significa ausencia de riesgo real. Por ahora, lo más peligroso parece estar fuera de nuestras fronteras. O al menos, fuera de nuestro radar.
El reloj está en pausa y el alto riesgo aún no entra en juego
Los sistemas de alto riesgo como los que se usan en salud, justicia, educación o acceso a servicios públicos todavía no están bajo el microscopio de la Aesia. Faltan detalles clave. La Ley Ómnibus Digital, que adaptará el marco español al reglamento europeo, aún está en negociación. El momento en que la agencia pueda evaluar formalmente estos sistemas dependerá de cuándo se cierre ese proceso podría ser agosto de 2027 o diciembre del mismo año. Mientras tanto, el reloj avanza, pero la acción reguladora sigue en espera.
Este retraso no es un vacío. Es una oportunidad. La Aesia ya ha respondido a 700 consultas en su primer año de funcionamiento. Empresas, instituciones, ciudadanos. Todos quieren saber cómo aplicar el reglamento, qué riesgos corren, qué beneficios pueden obtener. La agencia no solo vigila. También explica, forma, acompaña.
Formar, innovar, proyectar
Además de supervisar, la Aesia tiene otras funciones clave. Una es la formación y la alfabetización en IA. No solo para técnicos, sino para ciudadanos, estudiantes, funcionarios. La idea es que nadie quede excluido del debate. Otra es apoyar la innovación publicará guías en español e inglés y permitirá probar sistemas en entornos reales, con supervisión. Y también aspira a ser un referente internacional, un interlocutor clave para la Comisión Europea.
Próximamente, a finales de marzo, lanzará un laboratorio de ideas un think tank interno dedicado a estudiar los impactos sociales y económicos de la IA. Se centrará en temas como la desinformación y el futuro del mercado laboral. Pero no lo hará en solitario. Planea abrirse a colegios, institutos, universidades y asociaciones para escuchar problemas reales, no solo teorías abstractas.
La IA, en el ojo del huracán político
El debate sobre la IA ya no es técnico. Es político, ético, urgente. El presidente del Gobierno ha instado a la Fiscalía a investigar plataformas por difundir contenido sexual generado por IA y ha anunciado la prohibición del acceso de menores a las redes sociales. Una medida fuerte, polémica, pero que tiene paralelos en otros países como Australia o Francia.
España siempre ha sido un país de derechos. El presidente del Gobierno ha tomado una decisión valiente, muy pensada y creo que acertada con la prohibición del acceso de menores a las redes. Está en la línea de Australia, Francia y otros países. Al final se trata de asegurar que los derechos del mundo físico se trasladan al mundo digital. Y si los responsables de esas compañías no son capaces de asegurar que esos derechos se respetan, entonces tiene que haber alguna respuesta
La Aesia no actúa como policía. Pero sí puede convertirse en una pieza clave en investigaciones penales. Puede aportar pruebas, documentación, análisis técnicos a la policía, al Ministerio Fiscal o a autoridades competentes. Hasta ahora, eso no ha pasado. Nadie ha pedido formalmente su intervención en una investigación criminal. Pero el marco ya existe. Y mientras las redes arden con contenido generado por máquinas, esa llamada podría llegar en cualquier momento.
Regulación sin miedo, pero sin prisa
Gago no ve la regulación como un freno. La compara con un instrumento quirúrgico preciso, enfocado, necesario. Sobre la Ley Ómnibus, reconoce que "ninguna negociación es perfecta", pero defiende que el objetivo no es desregular, sino simplificar lo que es burocráticamente excesivo. "Focalizar mejor", dice. Como si la regulación pudiera afinarse, pulirse, para no ahogar la innovación, pero tampoco dejarla sin bridas.
La inteligencia artificial ya no es ciencia ficción. Está en nuestros móviles, en las decisiones de acceso a becas, en los algoritmos que curan o que expulsan. La Agencia Española de Supervisión de la Inteligencia Artificial no nace para parar el futuro. Nace para asegurarse de que llegue de forma justa.