Hace unos días, una noticia sacudió la escena pública en Alemania Collien Fernandes, conocida presentadora de televisión, se vio envuelta en un caso que trasciende la esfera personal para convertirse en un espejo incómodo de lo que está ocurriendo en buena parte de Europa. Imágenes íntimas manipuladas con inteligencia artificial, protagonizadas por ella, comenzaron a circular. No eran reales. Eran *deepfakes pornográficos*. Pero su impacto, muy real. Según las investigaciones, el presunto responsable sería su exmarido, el actor Christian Ulmen. Un detalle que añade una capa más de dolor, pero también de alerta cuando la tecnología se convierte en arma en manos de quienes conocen a la víctima.
La violencia que no deja moretones, pero duele
Estos contenidos no son simples montajes. Son recreaciones hiperrealistas, generadas por algoritmos que aprenden de imágenes públicas fotos de redes, apariciones en eventos, entrevistas para superponer rostros a cuerpos desnudos en escenas sexuales. El resultado es tan creíble que muchas veces es imposible distinguirlo de la realidad a simple vista. Y aunque la víctima no participó en su creación, el daño emocional, reputacional y psicológico puede ser devastador.
Collien Fernandes no es un caso aislado. Es solo una de las muchas mujeres famosas o no que cada día ven su identidad violada por estas herramientas. Se trata de una forma de violencia digital que se ceba especialmente con mujeres, muchas veces con el único fin de humillar, controlar o vengarse. Pero mientras la tecnología avanza a pasos agigantados, las leyes se quedan rezagadas. En gran parte de Europa, este tipo de abusos aún no están claramente tipificados como delito. Existe un vacío legal que algunos están explotando con total impunidad.
Cuando la tecnología se adelanta a la justicia
El caso ha sido investigado por un programa periodístico de escrutinio público, producido por ARTE, un canal conocido por su compromiso con el periodismo de investigación y el debate social. El reportaje, que explora el fenómeno de los *deepfakes* desde múltiples ángulos, se distribuye en 10 idiomas, gracias al proyecto Emove Hub. Una iniciativa que, financiada por la Unión Europea bajo la convocatoria European Media Hubs, busca fortalecer el periodismo transnacional y dar voz a asuntos que trascienden fronteras.
Esta acción multimedia, enmarcada dentro de las iniciativas de los Veintisiete, pone de manifiesto que el problema no es solo alemán, ni siquiera europeo es global. Pero también señala un camino. La financiación europea a proyectos como este no solo permite visibilizar el daño, sino también exigir respuestas legales y éticas. La Dirección General de Redes de Comunicación, Contenido y Tecnología (DG Connect) está detrás de esta convocatoria, lo que demuestra que las instituciones empiezan a tomar conciencia la tecnología no puede avanzar sin frenos éticos.
El rostro de la víctima, el arma del ataque
Lo más inquietante de los *deepfakes pornográficos* es su facilidad de acceso. Ya no se necesitan conocimientos de edición avanzada. Basta con una docena de fotos públicas y una herramienta de inteligencia artificial, muchas veces gratuita o de bajo coste, para generar contenido sexual falso con el rostro de cualquier persona. El cuerpo digital se convierte en territorio invadido, y la identidad, en un dato manipulable. Y aunque las plataformas digitales comienzan a reaccionar, eliminando contenido cuando es denunciado, el daño ya está hecho. Las imágenes circulan, se replican, se almacenan en rincones oscuros de la red. Y la víctima, muchas veces, queda sola.
Este caso, con nombres propios y vínculos personales, obliga a mirar con más atención lo que hasta ahora muchos han tratado como una amenaza lejana. No se trata solo de famosos. Cada día, mujeres anónimas sufren este tipo de acoso, muchas veces sin poder denunciarlo por vergüenza, por miedo o por la falta de herramientas legales. Mientras los tribunales se debaten sobre cómo tipificar estos delitos, las víctimas enfrentan un infierno silencioso.
La tecnología no es mala por naturaleza. Pero tampoco es neutra. Depende de quién la use, y para qué. Y cuando se convierte en instrumento de venganza, humillación o control, deja de ser innovación para convertirse en violencia. El caso de Collien Fernandes no es el primero, ni será el último. Pero quizá, por fin, sirva para que Europa deje de mirar hacia otro lado y comience a legislar con la urgencia que este fenómeno exige. Porque detrás de cada rostro manipulado, hay una persona real, con nombre, historia y derecho a decidir sobre su propia imagen.