Un vídeo de ICE falso generado con Sora se coló en el informativo de ZDF sin que nadie lo advirtiera

06 de marzo de 2026 a las 09:25h
Un vídeo de ICE falso generado con Sora se coló en el informativo de ZDF sin que nadie lo advirtiera
Un vídeo de ICE falso generado con Sora se coló en el informativo de ZDF sin que nadie lo advirtiera

En febrero, una cadena de televisión pública alemana se vio envuelta en un escándalo que parecía sacado de una película de ciencia ficción. ZDF, conocida por su rigor informativo, emitió un reportaje sobre las controvertidas acciones del Servicio de Inmigración y Control de Aduanas de Estados Unidos, el ICE. Entre imágenes reales de protestas y testimonios, se coló un vídeo en el que unos niños se aferraban desesperados a su madre mientras agentes la detenían. El problema no era el contenido, sino el origen aquello no había ocurrido. Era una simulación generada por inteligencia artificial.

El clip mostraba una marca de agua de Sora, la herramienta de generación de vídeos de OpenAI. Una pista demasiado evidente, pero que pasó desapercibida. Tras la polémica, el corresponsal en Estados Unidos fue destituido. No era un error menor. Era la primera vez que una cadena de noticias de prestigio internacional incluía material sintético sin revelarlo, y lo hacía en un contexto tan delicado como el control fronterizo y la detención de inmigrantes.

El aluvión silencioso de vídeos falsos

Detrás de ese incidente aislado hay una tormenta más amplia. The Cube, el equipo de verificación de Euronews, descubrió que ese vídeo no era único. Formaba parte de una oleada de contenidos generados por IA que circulan libremente por redes sociales, especialmente en Instagram y Facebook. Muchos no llevan etiquetas, no avisan de su naturaleza ficticia, y algunos acumulan millones de reproducciones.

TruthScan, una empresa especializada en detección de contenido artificial, compartió datos sobre más de doscientos clips breves que muestran a agentes del ICE en escenas absurdas o violentas persiguiendo profesores, enfrentándose a camareros, irrumpiendo en metros. Lo curioso es que todos duran exactamente diez o quince segundos. Una coincidencia significativa. Sora 2, la versión más reciente del modelo de OpenAI, solo permite generar vídeos de esa duración. El formato mismo del contenido está delatando su origen.

Ya en noviembre del año anterior, una cuenta de Facebook difundió vídeos similares que se volvieron virales. Uno de ellos alcanzó cuatro millones de visitas antes de ser eliminado. Nadie sabía que era falso. Nadie lo indicaba. Y sin embargo, millones de personas los vieron como prueba de abusos policiales. La línea entre documental y ficción se ha vuelto tan delgada que ya no se siente al cruzarla.

La imagen que indignó a una activista

Y no solo los vídeos generados por IA manipulan la percepción pública. En enero, la Casa Blanca publicó en una red social una foto de Nekima Levy Armstrong, activista y abogada, tras su detención en una protesta contra el ICE en Minnesota. La imagen, aparentemente real, mostraba a la mujer con la piel más oscura y llorando visiblemente. Pero un análisis reveló que había sido alterada digitalmente.

La respuesta del gobierno federal no fue una disculpa, sino un mensaje sarcástico del director adjunto de Comunicaciones

"Una vez más a las personas que sienten la necesidad de defender reflexivamente a los autores de crímenes atroces en nuestro país, les comparto este mensaje La aplicación de la ley continuará. Los memes continuarán"

Armstrong, por su parte, expresó que estaba "disgustada" con la publicación. El episodio evidencia cómo incluso las instituciones más poderosas juegan con la imagen para reforzar narrativas, sin importar la autenticidad.

La diferencia no es la mentira, es la credibilidad

No es la primera vez que se manipulan imágenes con fines políticos. Las caricaturas satíricas, las fotos retocadas en dictaduras o las películas de propaganda han existido durante décadas. Pero hay un salto cualitativo. Lo hiperrealista ya no es solo convincente es indistinguible.

Ari Abelson, cofundador de OpenOrigins, una empresa que detecta deepfakes, lo resume con claridad

"Las caricaturas políticas siempre se han utilizado en política, y éstas se están utilizando de forma muy similar"

Pero inmediatamente matiza

"La diferencia clave es lo hiperrealistas que se están volviendo los vídeos"

No se trata de dibujos exagerados. Se trata de escenas que imitan a la perfección el mundo real, con luces, sombras, expresiones faciales y contextos cotidianos. La emoción que provocan es auténtica, aunque el suceso no lo sea.

Abelson advierte sobre un peligro mayor

"Hay un riesgo significativo para las respuestas colectivas a las acciones de las fuerzas del orden, tanto negativas como positivas"

Si no podemos confiar en lo que vemos, ¿cómo exigimos responsabilidades cuando algo verdaderamente grave ocurre? ¿Cómo celebramos los avances si los logros también pueden ser simulados? La desconfianza se convierte en la norma, y la verdad, en una opción entre muchas.

Ver para creer, pero ¿y si ya no se puede ver?

El problema no es la tecnología. Es su uso desmedido en espacios donde la credibilidad es vital el periodismo, la política, la justicia. Cuando un medio como ZDF cae en el error de usar un vídeo falso, no solo pierde credibilidad, sino que alimenta la idea de que todo puede ser mentira. Y cuando el poder político manipula imágenes, no solo ofende a una persona, sino al conjunto de ciudadanos que esperan transparencia.

Abelson lo tiene claro

"Los espacios sociales y de información requieren una cosa la capacidad de demostrar que una foto y un vídeo son reales, para que podamos disfrutar de los falsos como ficciones, y sentir la gravedad de los acontecimientos de la vida real"

La solución no es prohibir la IA, sino exigir transparencia. Etiquetas claras, huellas digitales verificables, sistemas de autenticación accesibles. Sin eso, caeremos en una era donde la emoción reemplaza a la evidencia, y donde cada imagen será un campo de batalla ideológico.

La pregunta ya no es si podemos crearlo. Es si debemos mostrarlo. Y sobre todo, si el mundo está preparado para distinguir lo real de lo simulado cuando ambos se ven igual.

Sobre el autor
Redacción
Ver biografía