Una IA con miles de millones de parámetros puede rechazarte y aun así no poder explicar por qué

"No estamos exigiendo transparencia. Estamos exigiendo teatro"

16 de marzo de 2026 a las 11:43h
Una IA con miles de millones de parámetros puede rechazarte y aun así no poder explicar por qué
Una IA con miles de millones de parámetros puede rechazarte y aun así no poder explicar por qué

Hace solo unos años, imaginar que las decisiones que afectan nuestras vidas como obtener una ayuda social o acceder a un empleo podrían estar en manos de algoritmos, sonaba a ciencia ficción. Hoy ya no es ficción. Es cotidianidad. Y ante este cambio de era, las sociedades democráticas han respondido con leyes. Ambiciosas, necesarias, bien intencionadas. Pero también, en algunos casos, desalineadas con la realidad técnica de lo que hoy puede hacerse y explicarse en el mundo de la inteligencia artificial.

Regulación con buena letra, pero letra muerta

La Unión Europea se ha colocado a la cabeza con una de las normativas más completas del planeta su Ley de Inteligencia Artificial. Un marco regulatorio pionero y muy ambicioso que establece las reglas del juego generales para los próximos años en el territorio comunitario. España, por su parte, ya cuenta desde 2021 con su Carta de Derechos Digitales, que incluye epígrafes concretos sobre la regulación de la IA. Ambas apuestan por un principio que suena justo y humano la explicabilidad.

Que una persona tenga derecho a saber por qué se le denegó un subsidio o por qué no fue seleccionada para un puesto de trabajo no es solo una exigencia técnica. Es un derecho fundamental. Pero aquí comienza el problema exigir que un sistema de IA explique de forma transparente por qué ha tomado una decisión choca directamente con lo que hoy es posible. Sobre todo en sectores sensibles o de alto riesgo, donde los algoritmos toman decisiones críticas basadas en cálculos que escapan a cualquier lógica lineal.

La ilusión de la explicación

Imaginemos un modelo de IA con miles de millones de parámetros, entrenado con datos de millones de currículos, salarios, trayectorias profesionales y variables socioeconómicas. ¿Cómo podría este sistema, en términos humanos, justificar por qué rechazó a un candidato? Exigir a un modelo informático compuesto por miles de millones de parámetros que traduzca su intrincadísimo cálculo probabilístico a una lógica humana de causa y efecto es un completo error de concepto.

Y sin embargo, la ley lo exige. Así que, para cumplir, la máquina hace algo inquietante inventa. No miente a propósito, pero fabrica una historia. Una narrativa que suena coherente, que parece lógica, que incluso puede ser convincente. Pero que no refleja en absoluto cómo se llegó a la decisión. La IA elabora una historia construida a posteriori que, a nosotros, como seres humanos, nos suena lógica, coherente e, incluso, reconfortante, pero que desde luego no refleja, en absoluto, el proceso matemático y probabilístico real que motivó el resultado.

El resultado es paradójico. Lo que le pedimos a estos sistemas es que generen justificaciones intrínsecamente falsas, simplemente con el objetivo de que cumplan con la legalidad. No estamos exigiendo transparencia. Estamos exigiendo teatro.

El salto a la IA agéntica más autonomía, menos control

Y esto es solo el principio. El próximo gran salto que enfrenta el sector es la implementación a gran escala de la conocida como IA agéntica. A diferencia de los modelos actuales, que actúan de forma pasiva respondiendo a nuestras consultas, esta nueva generación podrá operar con gran autonomía. Basta con asignarles un objetivo para que estos sistemas planifiquen, interactúen con otros programas y tomen decisiones casi sin intervención humana.

Imaginemos un agente autónomo encargado de optimizar el gasto público en una administración local. Recibe el objetivo reducir costes en un 15% sin afectar servicios esenciales. El agente analiza datos, simula escenarios, negocia con otros sistemas y ejecuta decisiones. Todo en minutos. Ahora, intentar auditar y exigir explicaciones detalladas a una red de agentes autónomos que operan de forma simultánea, va a ser, sin duda, un reto quijotesco.

El reto del puente entre ley y código

Hay una enorme brecha entre la voluntad legislativa y la viabilidad técnica. Las leyes nacen del deseo de proteger derechos, de garantizar justicia, de preservar la dignidad humana. Pero si no se construyen sobre una comprensión real de cómo funcionan las tecnologías que regulan, corren el riesgo de convertirse en meras formalidades. En buenas intenciones que no se traducen en control real.

Por eso, los reguladores públicos deben tener un perfil híbrido. No basta con dominar el derecho o las políticas públicas. Es imprescindible que estén versados en políticas públicas y, al mismo tiempo, con una capacitación técnica sólida. Necesitamos traductores entre el mundo del código y el del parlamento. Gobernar efectivamente la IA sin que nuestras leyes se diluyan en meras ilusiones no es una tarea fácil. Pero es la única que puede evitar que, en nombre de la transparencia, acabemos legitimando ficciones.

Sobre el autor
Redacción
Ver biografía