Mientras las democracias occidentales siguen aferradas al viejo mito de la deliberación racional, en Estocolmo el primer ministro ha tirado la primera piedra en el estanque digital. La confesión de Ulf Kristersson, admitiendo el uso diario de ChatGPT y LeChat como oráculos modernos en la toma de decisiones gubernamentales, ha bastado para resquebrajar la superficie. Lo que podría haber pasado por una anécdota trivial revela la naturaleza opaca y tentacular de la inteligencia artificial en la gestión pública.
El gesto resulta, en apariencia, de una franqueza escandinava. Kristersson no disfraza la realidad ni la relega a los pasillos oscuros de la administración tecnológica. Reconoce abiertamente que tanto él como su equipo consultan a máquinas diseñadas y explotadas por corporaciones extranjeras, no elegidas democráticamente pero sí omnipresentes. Se inicia así una polémica que alcanza a politólogos, académicos y expertos en privacidad, pero que trasciende el ámbito local sueco para interpelar a cualquier ciudadano del siglo XXI.
Ulf Kristersson usa IA para obtener una "segunda opinión"
La fascinación por la consulta algorítmica es mucho más profunda y peligrosa de lo que parece. En un sistema saturado de información, la IA se presenta como la herramienta ideal para destilar claridad en el caos. Sin embargo, en este proceso de purificación ocurren distorsiones difíciles de rastrear. Los expertos no tardan en señalar el principal talón de Aquiles de la operativa digital del poder sueco la transmisión inadvertida de información sensible a gigantes tecnológicos cuya lealtad no responde a ningún parlamento nacional. La información confidencial puede filtrarse si se utiliza en un servicio de IA como ChatGPT.

En la superficie, consultar a ChatGPT acerca de tendencias económicas o preguntar a LeChat por segundas opiniones sobre estrategias políticas puede parecer inocuo. El gobierno asegura que ninguna información comprometida se manipula en estas plataformas y que sirven solamente como referencia general, como si la consulta a la IA fuera tan neutra como una búsqueda en una enciclopedia vieja. Pero la memoria artificial es, por definición, indiscreta y acumulativa. Cada consulta deja un rastro, cada pregunta revela una inquietud estratégica, cada análisis entregado a la máquina modela el retrato robot del pensamiento gubernamental ante actores privados difíciles de escrutar.
La ilusión del consejo imparcial
Se erige entonces otro peligro, más implacable y escondido. A diferencia de un gabinete de asesores humanos con responsabilidades y trayectorias políticas, la inteligencia artificial no es, ni puede ser, una fuente de juicio neutro. Tras la aparente objetividad de estos sistemas bullen los sesgos, prejuicios y limitaciones de sus programadores y de los conjuntos de datos que los alimentan. Poner en manos de sistemas automáticos la búsqueda de "segundas opiniones" equivale a delegar la política, con todas sus complejidades morales, en un oráculo que funciona por patrones y estadísticas, no por ética ni por compromiso con el bien común.
Sin la legitimidad del voto ni la transparencia de los debates parlamentarios, la IA se introduce en la toma de decisiones como un polizón a bordo del Estado. Nadie la ha elegido, nadie la puede hacer responder ante los ciudadanos. Y sin embargo, comienza a ocupar el lugar de los asesores humanos, de las fuentes críticas, de la disidencia informada. ¿Quién asume la responsabilidad cuando el algoritmo se equivoca?, cuando perpetúa discriminaciones históricas, cuando interpreta erróneamente el contexto.
El teatro de la transparencia y la sombra de la vigilancia
El caso sueco nos obliga a enfrentar los límites y riesgos de la delegación tecnológica en la representación democrática. La transparencia proclamada por el gobierno sueco es engañosa, pues reduce el problema a la exposición consciente de información sensible. Pero el verdadero peligro reside en la infraestructura invisible de la vigilancia, en la extracción incesante de inteligencia a partir de pequeños detalles aparentemente inofensivos. Cada consulta, por inocente que sea, puede ser una pista valiosa para quienes comercian con datos o modelan escenarios de influencia política desde el otro lado del océano.
No es una crisis pasajera ni un desliz anecdótico. El caso de Suecia ilustra el auge implacable de la inteligencia artificial en sectores antes reservados a la sensibilidad y el juicio humanos. La delegación de poder en máquinas programadas desde despachos anónimos plantea un dilema existencial para el sistema democrático. ¿De quién es realmente el control cuando el proceso de gobierno incorpora, como parte integral, al intermediario algorítmico? La respuesta todavía está pendiente. Lo que es seguro es que, en la democracia digital, los ciudadanos siguen sin ser los protagonistas del guion.