La IA ya hace indistinguibles fotos y textos reales: Sergio Fernández Alonso alerta de que “ver algo” ya no prueba nada

El profesor Sergio Fernández Alonso, de la Universidad de Oviedo, advierte en un taller en Castropol que la inteligencia artificial está erosionando la credibilidad de imágenes y textos.

15 de mayo de 2026 a las 12:28h
La IA ya hace indistinguibles fotos y textos reales: Sergio Fernández Alonso alerta de que “ver algo” ya no prueba nada
La IA ya hace indistinguibles fotos y textos reales: Sergio Fernández Alonso alerta de que “ver algo” ya no prueba nada

Ver para creer dejó de ser una garantía. La percepción humana ya no basta para distinguir la realidad de la ficción digital en un entorno donde los algoritmos generan contenidos indistinguibles de los reales.

El coworking municipal de Castropol acoge este jueves a las 12.30 horas el taller La verdad en tiempos de la Inteligencia Artificial, una iniciativa impulsada por la Cámara de Comercio ovetense y financiada al 100 % por la Unión Europea.

Sergio Fernández Alonso, profesor del Departamento de Estadística, Investigación Operativa y Didáctica de la Matemática en la Universidad de Oviedo, impartirá la formación junto a Pelayo Suárez. Ambos expertos abordan la crisis de credibilidad que atraviesa la información visual y textual.

"Con el contenido creado con inteligencia artificial, nuestra percepción está dejando de tener validez como criterio de verdad: que veamos algo ya no supone per se una prueba de que algo sea cierto" - Sergio Fernández Alonso, profesor del Departamento de Estadística, Investigación Operativa y Didáctica de la Matemática en la Universidad de Oviedo

La velocidad de mejora técnica resulta vertiginosa. Las fotografías sintéticas de hace seis meses contenían errores evidentes, mientras que las actuales resultan casi indistinguibles de las capturas reales.

Los algoritmos muestran sesgos políticos contradictorios

La inconsistencia no se limita a la imagen. Fernández Alonso consultó tres herramientas similares (Chat GPT, Gemini y Deep Seek) sobre cuál es el sistema político más justo. Las respuestas fueron opuestas: una se inclinó por la socialdemocracia, otra por el capitalismo y la tercera por el comunismo.

Este comportamiento refleja que siempre existe un sesgo inherente al diseño de los modelos. El usuario recibe versiones de la verdad adaptadas a los datos de entrenamiento de cada plataforma, no una respuesta objetiva.

La educación enfrenta una pérdida de validez académica

El impacto alcanza las aulas universitarias y escolares. Los trabajos tradicionales pierden su función como herramienta de evaluación porque existe la duda razonable sobre quién redactó el texto.

"En la docencia, por ejemplo, porque los trabajos dejan de tener validez como herramienta de prueba de la capacidad del alumnado, y hay estudios sobre lo que influye en la madurez cognitiva de los jóvenes, con resultados que no son buenos. La tendencia es que herramientas piensen por ti" - Sergio Fernández Alonso, profesor del Departamento de Estadística, Investigación Operativa y Didáctica de la Matemática en la Universidad de Oviedo

La delegación cognitiva en máquinas plantea riesgos para el desarrollo intelectual. Si la tecnología realiza el esfuerzo de síntesis y análisis, el proceso de madurez crítica del estudiante se resiente.

La desconfianza se impone como mecanismo de defensa

Cuando la verdad deja de ser accesible mediante la observación directa, aparecen dos reacciones extremas. La primera consiste en no creer nada. La segunda implica fiarse de todo y asumir el riesgo de consumir mentiras o caer en estafas.

Además, personas con pruebas en contra de sus afirmaciones pueden escudarse en la existencia de la inteligencia artificial para desacreditar evidencias reales. La confusión beneficia a quien busca ocultar hechos.

Ante este escenario, la cautela se convierte en la única estrategia viable. Desconfiar de los contenidos procedentes de fuentes desconocidas marca la nueva norma de supervivencia informativa.

Sobre el autor
Redacción
Ver biografía