Los deepfakes sexuales de menores se han multiplicado por 16 en solo dos años

“Los efectos de esta violencia digital son devastadores y el material generado casi imposible de eliminar”

20 de febrero de 2026 a las 11:15h
Los deepfakes sexuales de menores se han multiplicado por 16 en solo dos años
Los deepfakes sexuales de menores se han multiplicado por 16 en solo dos años

La tecnología avanza a un ritmo que a veces deja atrás nuestra capacidad para controlar sus consecuencias. Y en ese desfase, hay quien se aprovecha. En los últimos años, una sombra se ha extendido por las redes sociales que muchos no querían ver la creación y difusión masiva de imágenes sexuales de menores manipuladas con inteligencia artificial. No se trata de un fenómeno marginal. Es un problema estructural, con raíces profundas en el diseño mismo de las plataformas digitales y con víctimas muy reales, muy jóvenes y muy heridas.

Una crisis silenciosa que explota en público

El ministro de Justicia, Félix Bolaños, ha lanzado una advertencia clara en una carta dirigida a la fiscal general. En ella, señala que la combinación entre inteligencia artificial y redes sociales ha generado un ecosistema propicio para la creación, promoción y distribución de contenidos sexuales de menores y pornografía infantil. Y no se queda en una descripción general. Habla de cifras escalofriantes los deepfakes sexuales se han multiplicado por 16 en solo dos años. Una explosión geométrica que no responde al azar, sino a un entramado tecnológico y social que lo permite, incluso lo facilita.

Las plataformas más usadas por adolescentes, como X, Instagram y TikTok, están en el centro del escándalo. No solo como canales pasivos, sino como actores activos en un sistema que permite la circulación instantánea de contenido sin necesidad de conocimientos técnicos. Bolaños lo dice sin ambages facilita la creación y circulación instantánea de contenidos, muchas veces deepfakes sexuales, sin necesidad de conocimientos técnicos. Y peor aún los algoritmos, diseñados para maximizar el tiempo de pantalla, pueden estar amplificando de forma silenciosa este tipo de material.

¿Responsabilidad o impunidad?

Lo más grave, según el ministro, no es solo lo que ocurre, sino cómo ocurre. La velocidad y opacidad con la que este contenido se difunde dificultan su detección y persecución. Pero hay un paso más. Bolaños plantea una pregunta incómoda ¿y si las plataformas no son simples intermediarias, sino cómplices pasivas o incluso activas? Estas circunstancias podrían implicar también una responsabilidad penal autónoma en el seno de las propias plataformas.

La frase no es menor. Implica que las empresas tecnológicas podrían estar ante una responsabilidad penal que vaya más allá de lo civil o administrativo. Y lo hace con una contundencia que no deja lugar a dudas los hechos ilícitos que se cometen podrían no ser una consecuencia imprevista, sino el resultado de un curso de acción deliberado y consciente que podría haber sido fácilmente evitado. Es decir, que si hoy hay miles de imágenes falsas circulando, no es porque no se pudiera prever, sino porque no se quiso evitar.

Cuatro delitos, un solo objetivo proteger a los menores

Un informe técnico elaborado por los ministerios de Presidencia, Transformación Digital y Juventud desglosa con precisión jurídica lo que está ocurriendo. Identifica al menos cuatro tipos delictivos recogidos en los artículos 189 y 189 bis del Código Penal. El primero es claro crear material pornográfico con menores, incluyendo deepfakes. No hace falta que el menor participe físicamente. Basta con que una inteligencia artificial genere una imagen realista de su rostro sobre un cuerpo desnudo en actitud sexual. Ya es delito.

El segundo delito abarca la producción, distribución o incluso la simple puesta a disposición de ese material. No es necesario que alguien lo comparta directamente. Basta con que lo suba a un perfil público, a un grupo cerrado o incluso que lo etiquete para que otros lo encuentren. El tercero incluye la posesión o el acceso consciente a este contenido. Y el cuarto, más amplio, castiga cualquier acción que promueva, fomente o incite a esos delitos. En España, uno de cada cinco jóvenes afirma haber sufrido la difusión en redes sociales de desnudos manipulados con IA sin su consentimiento durante su infancia. Es un dato que no puede ignorarse.

El paso de lo digital a lo real un daño irreversible

El informe revela algo aún más inquietante parte del contenido que circula en redes como Instagram o TikTok no es el final del camino. Muchas veces, redirige a usuarios hacia canales externos, como Telegram, donde se ofrece o intercambia material pedófilo. En otros casos, son esos mismos canales los que sirven como puerta de entrada para compartir archivos por otras vías, como plataformas de livestreaming. Es una red invisible, pero muy bien conectada.

Y el contexto de estos delitos no es neutro. El informe alerta de que pueden estar cometiéndose en contextos de especial gravedad, como el uso de menores de menos de 16 años, el trato degradante, la violencia o la pertenencia a organizaciones criminales. Todo ello agrava la pena, pero no elimina el daño. Porque el daño ya está hecho. Y es profundo.

Las víctimas no se recuperan en silencio

En Almendralejo, Badajoz, en 2023, se destapó un caso que conmocionó al país. Más de 20 niñas, entre 11 y 17 años, fueron víctimas de montajes pornográficos con IA realizados por compañeros de clase. Imágenes que aparecieron en grupos escolares, que se compartieron con burla, que dejaron marcas imborrables. Este caso no es una excepción. Es un espejo de lo que ocurre en muchas aulas, en muchos móviles, en muchas vidas.

El informe es claro los efectos de esta violencia digital son devastadores y el material generado prácticamente imposible de eliminar. Una vez que una imagen falsa circula, se replica, se almacena, se descarga. Y aunque se borre de una plataforma, queda en servidores, en chats privados, en copias clandestinas. Las víctimas lo saben. Siete de cada 10 afirman que la distribución de sus imágenes les afecta de manera diferente al abuso físico. No es lo mismo. Es otro tipo de violencia. Silenciosa, permanente, pública.

Y las consecuencias psicológicas son brutales. Los supervivientes tienen entre dos y cuatro veces más probabilidades de autolesionarse o tener pensamientos suicidas. No es una estadística fría. Es una llamada de auxilio. Las denuncias por delitos sexuales digitales contra menores han aumentado un 13% en solo dos años, siendo niñas el 70% de las víctimas. Hay un patrón. Hay un género. Hay un problema estructural.

¿Qué se puede hacer?

Bolaños pide la activación del artículo 8 del Estatuto del Ministerio Fiscal, una medida excepcional que permite a la fiscalía actuar de oficio en casos de especial gravedad. Es un recurso que no se usa a la ligera. Pero el ministro lo justifica la importancia capital del bien jurídico protegido, la dignidad de los menores, y la evidente impacidad con la que se actúa en el ámbito de internet y las redes sociales obliga a recurrir a todos los resortes legales existentes.

Y recuerda que ya se han dictado en España sentencias pioneras sobre estos casos. La justicia no está paralizada. Pero sí desbordada. Por eso, el Gobierno insiste en que incluso con el marco normativo actual es posible sancionar. La ley está. Falta la voluntad de hacerla cumplir. Y las plataformas digitales deben dejar de esconderse tras la figura del mero intermediario. El papel desempeñado por estas plataformas digitales debe ser tenido en consideración.

Estamos ante un cruce de caminos. Por un lado, la innovación tecnológica. Por otro, los derechos humanos. Y en medio, millones de jóvenes que navegan sin salvavidas. No se trata de frenar la tecnología. Se trata de exigirle responsabilidad. Porque cuando la dignidad de un menor está en juego, no puede haber neutralidad.

Sobre el autor
Redacción
Ver biografía