"Ver ya no significa creer", advierte Hany Farid, pionero en análisis de deepfakes en la Universidad de California

Un estudio de la Stanford Graduate School of Education revela que los niños entre ocho y doce años suelen ver la inteligencia artificial como algo mágico y divertido, sin percibir su potencial manipulador.

28 de octubre de 2025 a las 06:25h
ver ya no significa creer la alfabetizacion visual 2025 10 27 06 40 56
ver ya no significa creer la alfabetizacion visual 2025 10 27 06 40 56

Hoy en día, ver ya no significa creer. Esta afirmación, que suena casi como una paradoja, se ha convertido en una realidad que debemos asumir, especialmente cuando hablamos de adolescentes y niños creciendo en un mundo saturado de imágenes hiperrealistas generadas por inteligencia artificial. Hany Farid, profesor en la Universidad de California en Berkeley y uno de los pioneros en el análisis de deepfakes, lleva más de veinte años estudiando cómo la tecnología puede manipular la percepción de la verdad. Su advertencia es clara la capacidad de distinguir entre lo real y lo falso ya no es solo una habilidad técnica, sino una forma nueva de alfabetización, la alfabetización visual digital.

"Estamos llegando a un punto en que ver ya no significa creer", advierte Hany Farid, profesor en Berkeley, California

Los avances en los generadores de imágenes y vídeos son tan asombrosos que incluso los expertos deben esforzarse para detectar los engaños. Expresiones faciales, voces, paisajes todo puede ser recreado con una fidelidad que desafía la percepción humana. Farid ha identificado ciertos patrones reveladores, como parpadeos irregulares, sombras imposibles, reflejos que no encajan o contornos ligeramente borrosos. Estas pistas, aunque sutiles, pueden servir como herramientas de educación visual. Y aquí reside una oportunidad convertir la detección de deepfakes en una actividad entretenida y formativa. Ver un vídeo en familia y buscar conjuntamente la pista falsa puede fortalecer no solo la mirada crítica, sino también los lazos afectivos.

La vulnerabilidad de los adolescentes es un tema que preocupa especialmente a Michal Kosinski, psicólogo computacional y profesor asociado en la Graduate School of Business de Stanford. Según él, el cerebro adolescente aún está desarrollando el pensamiento crítico, y esta etapa evolutiva los hace más propensos a confiar en lo que ven y en lo que comparten sus amigos. Esta confianza, sumada a la velocidad de las redes, puede convertir un simple mensaje en un vehículo de desinformación a gran escala.

"Los adolescentes son especialmente vulnerables porque su cerebro aún está desarrollando el pensamiento crítico y tienden a confiar más en lo que ven y en lo que comparten sus iguales", sostiene Michal Kosinski, profesor asociado en la Graduate School of Business de Stanford.

Por eso Kosinski insiste en que no se trata de fomentar el miedo, sino de cultivar una pausa reflexiva. En un entorno de sobreinformación, donde las reacciones emocionales impulsivas dominan los flujos de contenido, enseñar a los jóvenes a detenerse antes de compartir puede marcar una gran diferencia. No se trata de vivir con paranoia digital, sino de adquirir una pausa reflexiva. Este momento de pausa no solo protege contra la desinformación, sino que también reduce la ansiedad generada por el bombardeo constante de noticias impactantes.

Kai Shu, investigador sobre desinformación digital en la Universidad de Emory, coincide en que la clave está en fomentar un escepticismo saludable. Sugiere que los jóvenes se hagan preguntas básicas antes de dar por verdadero cualquier contenido ¿quién lo ha publicado?, ¿qué interés puede tener?, ¿por qué lo quiero compartir yo? Estas preguntas no solo ayudan a evaluar la credibilidad del mensaje, sino que también promueven la autorreflexión sobre nuestro propio comportamiento digital.

María Gómez, madre de 45 años, relata una experiencia que muchos pueden reconocer. Su hijo adolescente le mostró un vídeo en WhatsApp en el que un famoso aparecía haciendo algo escandaloso. El contenido parecía completamente real y ya circulaba entre todos los compañeros del instituto. Al día siguiente descubrieron que se trataba de un montaje generado con inteligencia artificial. El chico se sintió avergonzado, preguntándose cómo podía saber que era falso si parecía tan real. Hoy, María ha cambiado su enfoque. Cuando su hijo le muestra algo impactante, le pregunta ¿qué crees que pasaría si esto fuera falso? Y lo verifican juntos.

"Cuando mi hijo me enseña algo sorprendente, le digo vamos a ver quién lo publicó primero. A veces se convierte en un juego", cuenta María Gómez, madre de 45 años.

Elena Ruiz, especialista en detección de deepfakes en una startup de ciberseguridad, subraya un patrón recurrente en los contenidos virales falsos. Cuando un vídeo despierta emociones intensas como miedo, indignación o sorpresa, y se acompaña de frases como mira esto ya, es el momento ideal para activar el freno. Ese tipo de impulso emocional es el gancho perfecto de la desinformación. Ruiz recomienda el uso de herramientas como las búsquedas inversas de imágenes, por ejemplo TinEye, o la verificación cruzada de fuentes. También advierte sobre los detectores automáticos de deepfakes muchos anuncian tasas de acierto del 99%, pero suelen fallar en contextos reales porque están entrenados con tipos muy específicos de falsificaciones.

Carlos Méndez, ingeniero y ex trabajador de OpenAI, tiene una visión equilibrada sobre la inteligencia artificial. Para él, no es el enemigo, sino una herramienta extraordinariamente poderosa, creativa y útil. El verdadero problema surge cuando dejamos de pensar. Los adolescentes deben entender que una imagen bonita o un vídeo impactante pueden ser falsos, y que su criterio es el mejor filtro. Méndez defiende que, así como aprendimos a leer y escribir, ahora necesitamos aprender a mirar con conciencia. Esta nueva habilidad no sustituye a las anteriores, sino que las complementa en un mundo visualmente hipercomplejo.

Una educación visual para la era digital

Lucas Ramos, de 16 años, cuenta que antes compartía vídeos impactantes sin dudarlo. Pero tras descubrir que uno de ellos era falso, cambió su comportamiento. Ahora busca en Google antes de reenviar cualquier cosa. Dice que se ha vuelto más desconfiado, pero también más tranquilo. Ya no comparto sin pensar. Paro, pregunto, busco. Me siento más seguro.

Un estudio de la Stanford Graduate School of Education publicado en 2024 titulado The AI Tinkery A sandbox for educators revela que los niños entre ocho y doce años suelen ver la inteligencia artificial como algo mágico y divertido, sin percibir su potencial manipulador. Por eso Kosinski recomienda abordar el tema con los más pequeños como un juego o una historia compartida, construyendo conciencia sin generar miedo.

La OCDE, en su informe School partnerships addressing child well-being and digital technology de 2025, ya observa que algunos centros educativos están incorporando estrategias innovadoras sesiones de tutoría sobre verdad digital, invitaciones a expertos en ciberseguridad o actividades para que los alumnos rastreen las fuentes originales de contenidos virales. Estas iniciativas no solo enseñan a desconfiar, sino a indagar, a buscar, a interpretar.

"No podemos dejar que los jóvenes naveguen solos por un océano lleno de tiburones digitales", advierte Farid.

La educación digital no puede esperar. Ya no es una asignatura optativa, sino una necesidad vital. Y como demuestra la experiencia de María Gómez y su hijo, este proceso puede convertirse en un momento de diálogo, de aprendizaje compartido, de crecimiento mutuo. Enseñar a mirar con criterio no es cuestionar la tecnología, sino fortalecer la humanidad frente a ella.

Sobre el autor
Redacción
Ver biografía