Una encuesta revela lo que muchos temían la creación y circulación de imágenes sexualizadas generadas con inteligencia artificial se ha convertido en una práctica frecuente entre los adolescentes en Estados Unidos. No se trata de casos aislados ni de un fenómeno marginal. Según un estudio publicado en la revista PLOS One, más de la mitad de los jóvenes encuestados han creado o recibido imágenes alteradas de compañeros, muchas veces sin su consentimiento. Y lo más preocupante no saben con certeza cuántas personas las han visto, ni hasta dónde han llegado.
Una práctica extendida y poco comprendida
La investigación, liderada por Chad Steel, experto en comportamiento digital de la Universidad George Mason, se basó en una encuesta anónima a 557 adolescentes de entre 13 y 17 años. Los resultados dibujan un panorama inquietante. El 55,3 % de los participantes admitió haber creado al menos una imagen sexualizada manipulada de una persona real, un proceso conocido como deepfake. Casi la misma proporción, el 54,4 %, dijo haber recibido una de esas imágenes. El 36,3 % confesó que alguien había generado una imagen suya sin su permiso. Y el 33,2 % reconoció que al menos una de esas imágenes había sido compartida con otras personas.
Estos números no son solo estadísticas. Detrás hay cuerpos expuestos, identidades alteradas y emociones heridas. La violación del consentimiento se ha vuelto invisible, rápida y viral. Y aunque el estudio muestra que los hombres jóvenes participan más activamente en la creación y distribución de este contenido, el impacto afecta a todos los grupos demográficos. Lo que antes era un acto de acoso individual ahora puede escalar en segundos, alimentado por algoritmos que no distinguen entre lo real y lo falso.
"Los adolescentes son más propensos a tener todo tipo de comportamientos problemáticos y, aunque existen indicios, no sabemos con seguridad cuántos pueden estar usándolas" - Chad Steel, experto en comportamiento digital de la Universidad George Mason
La IA no crea sesgos, los amplifica
El problema no está solo en el uso indebido de la tecnología, sino en lo que esa tecnología reproduce. Lledó Museros, investigadora especializada en sesgos de género en inteligencia artificial, lo explica con claridad la IA no es mala por naturaleza, pero sí refleja y agrava las desigualdades que ya existen en la sociedad. "No es que la IA sea desigual o malvada, si no que amplifica nuestras desigualdades", afirma. Y ese eco digital reproduce una lógica cultural dominante el cuerpo femenino como objeto de deseo, priorizado para la atracción masculina.
Según Museros, los modelos de IA están entrenados con datos que provienen de internet, donde abunda contenido sexualizado y estereotipado. Como consecuencia, "la IA es mejor generando desnudos de cuerpos estereotipados, como mujeres blancas con buen cuerpo". Y no solo en imágenes. Si pides a un sistema que te muestre a un ingeniero, es más probable que te muestre a un hombre. "Si quieres una persona que sea un profesional de la ingeniería, probablemente te va a predecir que es un hombre", señala. La tecnología no inventa prejuicios, los aprende y los escala.
Un impacto real, aunque las imágenes sean falsas
Para muchos jóvenes, las redes sociales son un escenario clave para construir su identidad. Natalia Bueso-Izquierdo, psicóloga, lo tiene claro "Es un espacio de identidad y validación". En ese contexto, una imagen manipulada puede parecer un juego o una broma. Pero el daño que causa no lo es. "Aunque las imágenes sean falsas o manipuladas, el impacto en la víctima es real y profundo", subraya. El aislamiento, la ansiedad, el estrés, la vergüenza y el miedo al juicio social son reacciones comunes. Y muchas veces, las víctimas no denuncian por temor a no ser creídas o a que el contenido se vuelva aún más viral.
En los últimos años, han proliferado sitios y aplicaciones que permiten generar contenido sexual explícito sin consentimiento. Un análisis del Centro para Contrarrestar el Odio Digital (CCCDH) reveló que entre finales de diciembre y principios de enero, Grok, la IA de Elon Musk, generó tres millones de imágenes de contenido sexual explícito. Al menos 23.000 de ellas mostraban a menores. Estas cifras no son errores del sistema, son consecuencias de un diseño que no prioriza la ética.
Plataformas que sostienen lo inaceptable
Un estudio realizado por Indicator sobre 85 sitios de contenido nudista concluyó que la mayoría depende de grandes empresas tecnológicas como Google, Amazon y Cloudflare para permanecer en línea. Estas plataformas no solo alojan el contenido, sino que permiten su difusión masiva. Se estima que esos 85 sitios generaron colectivamente hasta 36 millones de dólares en los primeros seis meses de 2025, con 18,5 millones de visitantes mensuales. El negocio de la explotación digital está más consolidado de lo que imaginamos.
¿Qué se puede hacer?
La respuesta está empezando a tomar forma. La semana pasada, los gobiernos de la Unión Europea acordaron impulsar la prohibición de sistemas de inteligencia artificial capaces de producir pornografía. La iniciativa, liderada por España, se enmarca en la revisión de la Ley de Inteligencia Artificial. Aunque la medida aún debe negociarse con el Parlamento Europeo, su propuesta marca un antes y un después. Las conversaciones comenzarán a principios de abril, y el debate promete ser intenso.
Mientras tanto, Lledó Museros insiste en una solución a largo plazo la educación. "Tiene que ser una asignatura", dice. Y advierte sobre la exposición temprana de los niños a mensajes sexualizados. "Los chavales a partir de los ocho o nueve años ya reciben mensajes sexualizados brutales". Para ella, no actuar no es una opción. Si no corregimos estos patrones ahora, la IA no solo reflejará la violencia y desigualdad, sino que la hará más rápida, más fácil y más difícil de combatir.
- El 55,3 % de los adolescentes encuestados han creado imágenes sexualizadas manipuladas de otras personas.
- El 36,3 % aseguró que alguien generó una imagen suya sin consentimiento.
- La IA reproduce sesgos sociales, como la visión del cuerpo femenino como objeto.
- La Unión Europea negociará la prohibición de IA que genere contenido pornográfico.