Una investigación sin precedentes, coordinada por la Unión Europea de Radiodifusión y dirigida por la BBC, ha puesto sobre la mesa una preocupante realidad los asistentes de inteligencia artificial, cada vez más presentes en nuestra vida informativa, están fallando en aspectos clave de la veracidad y la transparencia. Este estudio, que involucró a 22 medios públicos de 18 países y analizó más de 300000 respuestas generadas por herramientas como ChatGPT, Copilot, Gemini y Perplexity, revela que casi la mitad de las respuestas presentan errores significativos, independientemente del idioma, la plataforma o el país desde donde se consultaron.
Las evaluaciones se centraron en cuatro pilares fundamentales para la información de calidad precisión, referencia a fuentes originales, contexto suficiente y la capacidad de distinguir entre opiniones y hechos verificables. Los resultados son contundentes. El 45 por ciento de las respuestas analizadas contenía al menos un problema grave. En concreto, el 31 por ciento incluía referencias nulas, engañosas o directamente incorrectas, lo que socava la posibilidad de verificar la información. Además, el 20 por ciento ofrecía datos desactualizados o, peor aún, alucinaciones generadas por la propia inteligencia artificial, es decir, respuestas que suenan creíbles pero que no se basan en ningún hecho real.
Entre los asistentes evaluados, Gemini, desarrollado por Google, obtuvo el peor desempeño, con una tasa de error del 76 por ciento, más del doble que cualquier otro sistema analizado. Este dato cobra especial relevancia porque Google ya ha integrado funciones basadas en Gemini en su buscador, como el Modo IA y los resúmenes generados con inteligencia artificial en Google Search. Esto significa que millones de usuarios podrían estar recibiendo información defectuosa sin ser conscientes de su origen ni de sus limitaciones.
"Las noticias precisas y de alta calidad son un pilar fundamental de las sociedades democráticas. Representar fielmente cómo una fuente presenta un hecho u opinión es clave para garantizar la exactitud y la calidad. Cualquier contenido editorial entregado por un asistente de IA sin una señalización clara puede inducir a error a los lectores", advierte el informe.
La dimensión del problema trasciende lo técnico. Jean Philip De Tender, director de medios y subdirector general de la UER, alerta sobre las consecuencias sociales de esta crisis informativa. Las deficiencias no son incidentes aislados, son sistémicas, transfronterizas y multilingües. Su impacto directo es la erosión de la confianza pública. Cuando las personas no pueden distinguir entre lo verdadero y lo inventado, terminan desconfiando de todo, incluso de las fuentes legítimas. Este colapso de la confianza puede frenar la participación democrática, ya que una ciudadanía informada es condición necesaria para una democracia funcional.
El auge silencioso de la IA en el consumo de noticias
El Informe de Noticias Digitales 2025 del Instituto Reuters confirma que el uso de herramientas de inteligencia artificial entre los consumidores de noticias ya es una realidad. El 7 por ciento de los usuarios en línea recurre a alguna IA para informarse, y este porcentaje se duplica entre los menores de 25 años, alcanzando el 15 por ciento. Esto indica una tendencia clara hacia la digitalización y automatización del acceso a la información, especialmente entre las generaciones más jóvenes.
Los casos de uso mejor valorados por las audiencias incluyen los resúmenes de noticias, que son apreciados por el 27 por ciento de los usuarios, seguidos por la traducción a distintos idiomas con un 24 por ciento, las recomendaciones personalizadas de artículos con un 21 por ciento y los chatbots para consultas informativas con un 18 por ciento. Estas funcionalidades, aunque útiles, no están exentas de riesgos si no se acompañan de transparencia y rigor.
"Esta investigación demuestra de forma concluyente que estas deficiencias no son incidentes aislados. Son sistémicas, transfronterizas y multilingües, y creemos que esto pone en riesgo la confianza pública. Cuando la gente no sabe en qué confiar, termina por no confiar en nada, y eso puede frenar la participación democrática", afirmó Jean Philip De Tender, director de medios y subdirector general de la UER.
El doble filo de la eficiencia tecnológica
Las empresas tecnológicas prometen que la inteligencia artificial permitirá producir noticias más rápido y a menor costo. Sin duda, desde un punto de vista económico y operativo, esto puede parecer una ventaja. Sin embargo, el informe advierte que este ahorro podría venir acompañado de una pérdida crítica en transparencia, precisión y fiabilidad. La automatización no debe convertirse en una excusa para reducir estándares editoriales.
La integridad informativa no puede depender de algoritmos que alucinan datos o citan fuentes inexistentes. La credibilidad del periodismo se construye sobre verificación, no sobre velocidad. Si las herramientas que acceden a la información no son capaces de distinguir entre un hecho y una ficción, o entre una opinión y una noticia, su integración en el ecosistema mediático debe hacerse con extrema precaución.
La tecnología debe servir al periodismo, no sustituirlo. Mientras tanto, queda claro que los usuarios deben aprender a navegar este nuevo entorno con escepticismo constructivo, y que las instituciones deben establecer normas claras para la utilización responsable de la inteligencia artificial en la comunicación pública.