Un juzgado de menores ya condenó por usar IA para manipular imágenes de niñas: este es el precedente

La ministra Sira Rego pide investigar a Grok por generar contenido sexual sintético con menores

09 de enero de 2026 a las 07:35h
Un juzgado de menores ya condenó por usar IA para manipular imágenes de niñas: este es el precedente
Un juzgado de menores ya condenó por usar IA para manipular imágenes de niñas: este es el precedente

La inteligencia artificial no es buena ni mala por naturaleza. Es una herramienta. Pero como cualquier herramienta, puede convertirse en un arma cuando cae en manos irresponsables o cuando su diseño omite salvaguardas esenciales. Ahora, esa frontera entre tecnología y ética ha sido cruzada de forma alarmante, al menos según las primeras evidencias. Y el Estado español ha decidido actuar.

Cuando la IA cruza la línea

La ministra de Juventud e Infancia, Sira Rego, ha enviado un escrito a la Fiscalía General del Estado para pedir una investigación urgente. El motivo no es menor. Se trata de Grok, la inteligencia artificial integrada en X, la plataforma antes conocida como Twitter. Varios medios han reportado que esta herramienta podría estar generando contenido que simula escenas de violencia sexual contra menores. No se trata de imágenes reales, pero eso no las hace menos dañinas. En el imaginario digital, lo simulado puede convertirse en trauma real.

El Ministerio de Juventud e Infancia no lo ve como un fallo técnico ni como un malentendido. Lo define con contundencia: estas prácticas vulneran gravemente la dignidad, la intimidad y los derechos fundamentales de niñas, niños y adolescentes en el entorno digital. Y no se queda en el plano moral. Lo que ocurre en la red también tiene consecuencias penales.

El código penal español no está pensado para el siglo XIX. Hoy ampara también lo que pasa en la pantalla. El Ministerio recuerda que el artículo 189 tipifica como delito la pornografía infantil, incluso cuando las imágenes sean generadas por ordenador. Y el artículo 173 protege la integridad moral. Si una inteligencia artificial produce contenido que humilla, violenta o sexualiza a menores, aunque sea sintético, entra en el radar del derecho penal.

La justicia ya ha sentado precedente

Este no es un escenario hipotético. Hace apenas semanas, el Juzgado de Menores de Badajoz dictó una sentencia clave. En el caso 86/2024, varias personas fueron condenadas por usar inteligencia artificial para manipular imágenes de niñas y adolescentes. La resolución judicial fue clara: estas acciones constituyen violencia digital.

Y eso cambia todo. Porque al reconocerlo como una forma de violencia, el sistema judicial ya no lo ve como un simple abuso de tecnología, sino como un daño real, psicológico, social. Es un paso crucial. Porque lo digital ya no es un mundo paralelo. Es el mundo. Y si el mundo digital permite que se fabriquen imágenes de menores en escenarios de abuso, sin consentimiento y con fines sexuales, estamos ante una monstruosidad técnica que exige respuesta inmediata.

Sira Rego lo ha dejado claro en su escrito: estamos ante una vulneración de derechos fundamentales. Y aunque la IA no tenga intención, su diseño sí tiene responsabilidad. No se puede esconder tras el argumento de que es solo un algoritmo. Detrás de cada línea de código hay decisiones humanas.

Protección digital: una batalla en marcha

Este caso llega en un momento clave. En el Congreso de los Diputados se tramita actualmente una ley orgánica diseñada específicamente para proteger a las personas menores en los entornos digitales. Impulsada por el mismo ministerio, busca reforzar el marco legal frente a nuevas formas de abuso, especialmente aquellas que aprovechan tecnologías emergentes como la inteligencia artificial.

La ley no solo quiere castigar. Quiere prevenir. Exigir auditorías, obligar a las plataformas a implementar filtros proactivos, garantizar que los menores no sean objeto de experimentos tecnológicos sin consentimiento. Porque la infancia no puede convertirse en un campo de pruebas para algoritmos sin escrúpulos.

El interés superior del menor debe prevalecer, enfatiza el Ministerio. Y eso significa que ningún modelo de negocio, por muy rentable o innovador que parezca, puede justificar la exposición de menores a contenido abusivo, real o artificial.

El futuro no puede justificar el daño presente

La inteligencia artificial avanza a una velocidad que a veces deja atrás a la regulación, la ética y la empatía. Pero eso no puede ser excusa. No es aceptable que empresas que manejan tecnologías tan poderosas actúen como si operaran en un vacío legal o moral.

Generar contenido de este tipo no es un error. Es una falla de diseño. O peor: una omisión deliberada. Porque los filtros existen. Las salvaguardas técnicas están al alcance. Y si no se implementan, alguien ha decidido que el riesgo vale la pena.

La solicitud de la ministra no es un ataque a la innovación. Es una defensa de lo más básico: la integridad de las personas más vulnerables.

Estamos ante una vulneración de derechos fundamentales, es imprescindible que la Fiscalía analice estos hechos gravísimos e impulse las actuaciones necesarias

 

Sobre el autor
Redacción
Ver biografía