En España corrigieron 6.000 fotos generadas por IA en una redacción que ya publicaba sin filtro humano

"Corregid el titular y lo volvéis a notificar": así una IA acabó enviando alertas repetidas a los lectores

25 de marzo de 2026 a las 10:29h
En España corrigieron 6.000 fotos generadas por IA en una redacción que ya publicaba sin filtro humano
En España corrigieron 6.000 fotos generadas por IA en una redacción que ya publicaba sin filtro humano

En julio de 2025, algo cambió en la redacción. No fue un despido masivo, ni una reestructuración con comunicado oficial. Fue más sutil los teletipos siguieron llegando, pero ya no había redactores ajustando titulares ni periodistas revisando fuentes. En su lugar, un algoritmo empezó a escribir noticias, a generar imágenes y a lanzar alertas a los móviles de los lectores. Todo en piloto automático. Nadie lo anunció con bombo, pero el periodismo, al menos en ese medio, dejó de ser humano.

El experimento de la redacción sin redactores

El plan era claro entrenar a una inteligencia artificial durante dos meses julio y agosto, con una posible prórroga de un mes para que asumiera progresivamente el trabajo de los periodistas. Un grupo de jóvenes alemanes, vinculados a la dirección técnica, impulsó la transición. Su idea no era mejorar el periodismo, sino reemplazarlo. A los trabajadores se les asignó un nuevo rol supervisores de errores. En turnos de cuatro horas, revisaban artículos, fotos y titulares generados por la IA, anotando fallos en una hoja de cálculo compartida. Los errores se clasificaban bajo, medio, grave, muy grave. Como si estuvieran evaluando un software, no una noticia.

Y los fallos no tardaron en aparecer. Ortografía incorrecta, imágenes sin relación con el contenido, titulares kilométricos o absurdamente cortos. Pero lo más preocupante no era la torpeza técnica, sino el sesgo informativo. La IA, programada para priorizar actividad sobre relevancia, enviaba notificaciones de última hora sobre el resultado de un partido de tenis en cuartos de final… varias veces. Mientras, silenciaba noticias urgentes olas de calor récord, disturbios racistas en Torre Pacheco. La máquina no entendía jerarquía, solo patrones.

Titulares que no informan, sino que confunden

Los titulares se convirtieron en una pesadilla editorial. Frases como "Díaz reclama garantizar seguridad flotilla Gaza" o "Sánchez ve necesario Países árabes reconozcan Israel..." sonaban a telegrama diplomático mal traducido. Otros, como "Congreso 751.421 euros pagados a Ábalos", podían interpretarse como acusaciones sin contexto. Algunos rozaban la desinformación, no por mala fe, sino por ausencia de sentido común. Y lo peor se publicaban automáticamente. No había filtro humano antes del lanzamiento.

Cuando los errores se acumularon, la orden del manager fue clara

"Corregid el titular y lo volvéis a notificar", manager.

Así, usuarios recibieron hasta tres notificaciones idénticas sobre el mismo hecho. Más adelante, la instrucción cambió

"Lo editáis, lo arregláis y lo dejáis estar", superior.

Una capitulación silenciosa ante la caída de calidad. No se trataba ya de mejorar la noticia, sino de contener el daño.

Imágenes que nunca existieron

En agosto, la automatización dio un paso más la IA comenzó a generar imágenes. Y aquí el desastre fue aún más evidente. Partidos entre el FC Barcelona y el Real Madrid mostraban jugadores con rasgos de Mbappé, Modric o Lamine Yamal… pero con caras inventadas. Unos rostros que no eran de nadie, pero que parecían reales. La inteligencia artificial no creaba imágenes; creaba simulacros. En la edición española, se corrigieron 6.000 fotos. Entre ellas, una bandera con los colores de Andalucía, pero con el escudo heráldico de España. Un error simbólico, casi poético la confusión entre identidades, entre lo real y lo generado.

En temas sensibles, como la guerra de Ucrania o accidentes de tráfico, las imágenes incluían logos ilegibles o frases borrosas superpuestas. Como si el algoritmo, al no comprender el drama, lo trivializara con errores técnicos. La orden era directa

"Veréis que hay ciertos errores, como caras de presidentes o de famosos. Quitadlas y dejad imágenes genéricas", Luis.

Genérico, al final, fue también el resultado un periodismo sin rostro, sin voz, sin alma.

El fracaso no es nuevo, pero se insiste

El experimento no era una novedad absoluta. En Italia, meses antes, todo el equipo editorial fue despedido en diciembre de 2023. Reemplazado por IA. A los tres meses, tuvieron que contratar a periodistas freelance.

"En diciembre de 2023 despidieron al equipo para reemplazarlo con IA, pero tres meses después se vieron forzados a contratar trabajadores freelance porque la tecnología aún no era capaz de reemplazar periodistas", editora italiana.

La lección fue clara la IA no sustituye al periodista. Pero en otras ediciones, como España, Francia o Polonia, el intento se repitió.

"Dos noticias creadas en cuatro horas", editora italiana.

"Los titulares no tienen sentido y son demasiado cortos", empleado francés.

En la edición española, las alarmas internas no faltaron. Un jefe preguntó en tono casi ingenuo

"¡Hola, Raúl! La IA nos dice que en general la calidad de los artículos en España es muy buena. ¿Es así?", jefe.

Y otra instrucción revelaba la nueva ética del medio

"No despubliquéis las noticias sin interés. Probemos a ver qué tal funciona tener muchas", jefe.

Más cantidad, menos calidad. Más ruido, menos información.

El futuro automatizado

En septiembre, el entrenamiento de la IA se extendió un mes más. No había marcha atrás. A finales de ese mes, quien escribió este relato dejó la empresa. En la última reunión, se anunció el siguiente paso la IA comenzaría a generar newsletters y vídeos de forma automática.

"Vienen cosas curiosas y grandes retos", Luis.

Una frase que suena a eufemismo. Lo curioso no es lo que viene, sino lo que ya está aquí un sistema que produce información sin entenderla, que notifica sin saber por qué, que repite errores sin aprender de ellos. El periodismo automatizado no falla porque esté mal programado; falla porque no puede captar lo humano. Y al final, no es la tecnología la que informa, sino la indiferencia con la que se implementa. Mientras tanto, las alertas siguen llegando. Y muchos, sin saberlo, ya no leen noticias. Leen algoritmos.
Sobre el autor
Redacción
Ver biografía