La sede de la Agencia Española de Supervisión de Inteligencia Artificial ocupa un espacio compartido con actividades vecinales en A Coruña. El edificio La Terraza, previsto para albergar la institución, sigue bajo concesión de RTVE hasta 2034.
La plantilla opera con menos de la mitad del personal previsto
El organismo cumple su primer año de vida operativa con una estructura humana reducida. Aunque el plan inicial contemplaba la incorporación de 80 especialistas, la nómina real asciende a 30 profesionales en agosto de 2025. La agencia publica ocho convocatorias laborales entre puestos fijos, temporales y plazas para funcionarios para intentar cubrir esta brecha.
Esta limitación de recursos explica que la autoridad no haya ejercido su poder sancionador ni auditado los algoritmos críticos de las grandes tecnológicas. La falta de inspectores impide una supervisión agresiva sobre el terreno.
Alberto Gago descarta la existencia de sistemas prohibidos en España
La Ley de Inteligencia Artificial europea habilita la prohibición de sistemas que vulneren derechos fundamentales desde febrero de 2025. Pese a este marco legal, el director de la AESIA mantiene una postura tranquilizadora sobre el cumplimiento normativo en el territorio nacional.
"Estamos seguros de que en España no opera ninguna IA prohibida" - Alberto Gago, director de la AESIA
Esta afirmación se produce sin que la agencia haya realizado inspecciones profundas a los operadores de alto riesgo. La confianza en el cumplimiento recae más en la autorregulación del sector que en la verificación exhaustiva por parte del supervisor.
El sandbox regulatorio seleccionó doce proyectos piloto
La herramienta principal de la agencia durante este primer ejercicio ha sido el entorno de pruebas controlado. De las 200 solicitudes recibidas, el organismo eligió 12 iniciativas para participar en un programa de duración anual. Estos experimentos han servido para redactar guías técnicas que facilitan a las empresas la adaptación a la normativa vigente.
Paralelamente, la puesta en marcha del Laboratorio de Ideas en abril busca anticipar conflictos éticos. Los focos de atención se centran en el impacto de la tecnología sobre el género, la protección de menores y la lucha contra la desinformación.
La certificación del modelo ALIA, desarrollado en el Barcelona Supercomputing Center, marca el primer hito técnico validado por la supervisora. Este caso demuestra la capacidad del organismo para evaluar sistemas complejos desarrollados dentro de las fronteras nacionales.