En un colegio de Cartagena, lo que empezó como un juego entre adolescentes con el teléfono en la mano terminó en una investigación policial. Tres menores están ahora imputados por crear y compartir imágenes manipuladas de compañeras de clase, usando aplicaciones de inteligencia artificial. En las fotos, las chicas aparecían desnudas, aunque nunca hubieran posado así. Las imágenes no eran reales, pero el daño sí lo es. Y este caso no es una excepción, sino un síntoma de una tecnología que avanza más rápido de lo que somos capaces de entender sus consecuencias.
Cuando la tecnología se vuelve arma
La inteligencia artificial ha permitido avances increíbles diagnósticos médicos más precisos, traducciones en tiempo real, asistentes que aprenden de nosotros. Pero también ha abierto puertas que muchos no queríamos ver abiertas. Aplicaciones accesibles, gratuitas y fáciles de usar permiten ahora generar contenido visual hiperrealista con solo escribir unas palabras. Y eso incluye imágenes íntimas de personas que nunca dieron su consentimiento.
En este caso, los tres menores usaron estas herramientas para crear desnudos falsos de chicas de su entorno escolar. No hubo acceso a cámaras ni hackeo de cuentas. Solo se necesitó una foto pública quizá de una red social y una app de IA que hace el resto. El resultado, aunque falso, es visualmente creíble. Y suficiente para humillar, acosar o destruir la reputación de una persona.
La investigación comenzó cuando un padre denunció haber encontrado una de esas imágenes de su hija. Lo que parecía un caso aislado pronto se multiplicó. A esa primera denuncia se sumaron otras siete. Ocho familias afectadas. Ocho chicas menores de edad que vieron su imagen manipulada y expuesta sin su permiso. El delito no está en lo que se ve, sino en el abuso de poder que hay detrás.
Del aula al juzgado juvenil
Los tres chicos han sido investigados por un delito de corrupción de menores. No por violencia sexual, ni por difusión de pornografía infantil, sino por una figura legal que busca proteger a otros menores de conductas que pueden corromper su desarrollo. Las diligencias ya están en manos de la Fiscalía de Menores de Murcia, que decidirá cómo avanzar bajo la Ley Orgánica 5/2000 de Responsabilidad Penal del Menor.
Este marco legal entiende que los menores no tienen la misma capacidad de discernimiento que los adultos, pero tampoco escapa a la responsabilidad. La justicia juvenil no castiga como en el sistema adulto, pero sí obliga a rendir cuentas. Y en este caso, el mensaje debe ser claro usar tecnología para vulnerar a otros no es un juego.
Pero también surge una pregunta incómoda ¿cuántos casos como este pasan desapercibidos? ¿Cuántos alumnos comparten en grupo de WhatsApp una imagen generada por IA sin pensar en el daño que causa? La frontera entre lo que parece broma y lo que es delito se ha vuelto tan borrosa como la propia imagen generada por algoritmos.
La IA no es mala, pero tampoco es neutral
La inteligencia artificial no tiene intención. No odia, no desea, no humilla. Pero tampoco es inocente. Depende de quién la usa y para qué. Y cuando cae en manos sin formación, sin ética o con malas intenciones, puede convertirse en una herramienta de control, vigilancia o abuso.
Antonio José Sánchez, catedrático sevillano y experto en Derecho Administrativo, lo dice sin rodeos.
"La inteligencia artificial es el sueño de cualquier dictador y podría poner en peligro la democracia si no se regula bien" - Antonio José Sánchez, catedrático de Derecho Administrativo y director de la primera Cátedra de Inteligencia Artificial y Derecho Público en España
Y tiene razón. Si no regulamos bien el uso de estas tecnologías, si no educamos en su manejo responsable, el poder que hoy está en manos de tres adolescentes en Cartagena podría estar mañana en las de instituciones, empresas o gobiernos con capacidades mucho mayores.
La tecnología no cambia la naturaleza humana, pero sí amplifica sus extremos. El mismo algoritmo que ayuda a un artista a crear puede usarse para destruir la intimidad de una persona. El problema no es la IA, sino la ausencia de límites, de educación y de conciencia.
¿Qué hacemos con lo que no podemos deshacer?
Una imagen generada por IA y compartida en internet puede borrarla el que la subió, pero no el rastro que dejó. Capturas, reenvíos, copias. El daño, una vez hecho, es casi imposible de contener. Y para las víctimas, especialmente menores, el impacto emocional puede durar años.
Este caso en Cartagena no es solo un asunto policial. Es un llamado de atención a padres, docentes, legisladores y desarrolladores. Necesitamos educación digital desde edades tempranas. Necesitamos leyes que no solo castiguen, sino que prevengan. Y necesitamos diseñar tecnologías que no permitan este tipo de abusos por defecto.
Porque si no lo hacemos, seguiremos descubriendo demasiado tarde que la inteligencia artificial no solo puede soñar con un mundo mejor. También puede convertir el nuestro en una pesadilla.