De 13 a 3.443 vídeos de IA en 2025: +26.385% y 65% en Categoría A, la más severa en abuso sexual infantil.

24 de abril de 2026 a las 08:07h
De 13 a 3.443 vídeos de IA en 2025: +26.385% y 65% en Categoría A, la más severa en abuso sexual infantil.
De 13 a 3.443 vídeos de IA en 2025: +26.385% y 65% en Categoría A, la más severa en abuso sexual infantil.

En algún punto entre la promesa del progreso y su sombra más oscura, la inteligencia artificial dejó de ser solo una herramienta de futuro para convertirse en un arma silenciosa en manos equivocadas. No hablo de drones autónomos ni de guerras cibernéticas, sino de algo más cercano, más repulsivo el abuso sexual infantil generado por algoritmos. Imágenes y vídeos que nunca ocurrieron, pero que parecen reales. Que duelen como si lo fueran. Que corren por la red a velocidades que las fuerzas de seguridad apenas pueden seguir.

Una marea que crece exponencialmente

Durante 2025, más de 1,5 millones de denuncias con contenido generado por inteligencia artificial llegaron al Centro Nacional para Menores Desaparecidos y Explotados. Entre ellas, más de 30.000 casos relacionados directamente con la creación de material de abuso sexual infantil mediante IA. De esos, al menos 7.000 implican a usuarios que no solo generan ese contenido, sino que lo coleccionan, comparten, incluso lo comercializan. Pero las cifras, por escalofriantes que sean, apenas rozan la magnitud del problema.

La Internet Watch Foundation (IWF), encargada de rastrear y analizar este tipo de contenido, evaluó más de 8.000 imágenes y vídeos generados por IA. En 2024, contabilizaron 13 vídeos. En 2025, la cifra saltó a 3.443. Un aumento del 26.385%. El 65% de esos vídeos cae en la "Categoría A", la clasificación más severa, reservada para los hechos de abuso más extremos. No se trata de representaciones vagas o estilizadas son escenas hiperrealistas, diseñadas para burlar filtros, escapar de la moderación y, sobre todo, alimentar perversiones.

El rostro de una víctima real, pública, vulnerable

Uno de los detalles más inquietantes es cómo se alimenta este horror. "La gente roba imágenes de Facebook e Instagram, cosas que los padres publican libremente, y las cuelgan en plataformas de inteligencia artificial", dice Joe O"Barr, investigador que lleva años rastreando estas redes. Una foto de cumpleaños, una instantánea de vacaciones, una selfie escolar todo puede convertirse en materia prima. Con solo subir una imagen, los modelos de IA pueden manipularla, desnudarla, colocarla en contextos violentos. Y a veces, como confesó O"Barr, el perpetrador no es un extraño, sino alguien cercano.

"El hecho de que el perpetrador conociera a la víctima hizo que se me erizara el pelo. Significaba que la niña podía estar en peligro real e inminente" - Joe O"Barr, investigador de seguridad infantil

Este detalle cambia todo. Deja de ser un caso abstracto de ciberdelincuencia para convertirse en una amenaza tangible, doméstica, íntima. No hay fronteras digitales que protejan cuando el abusador vive en la misma casa, en el mismo barrio, en la misma escuela.

El sistema se ahoga

Los investigadores están desbordados. En Carolina del Norte, un equipo especializado reportó un aumento de 11 veces en las "pistas" recibidas, mientras el volumen total de informes se duplicaba, alcanzando los 52.000 en un solo año. "Cuantos más casos tenemos para investigar, más difícil es tratar cada caso de manera individual", admite un investigador que prefiere permanecer en el anonimato. Y no es solo cuestión de volumen es un problema de recursos, de tiempo, de capacidad humana.

Un agente que habló con Bloomberg lo dijo sin rodeos "Estamos haciendo este trabajo masivo con la misma cantidad de recursos que teníamos hace diez años. No podemos soportarlo más y no queremos echar de menos a un niño de verdad del que se esté abusando sexualmente". La ironía es cruel mientras las empresas tecnológicas anuncian nuevas funciones de IA con desparpajo, los equipos encargados de contener sus peores derivados luchan con herramientas obsoletas y presupuestos insuficientes. La financiación del Departamento de Justicia para 61 grupos de trabajo estatales ronda los 30 millones de dólares. Una gota en un océano en llamas.

El silencio cómplice de las plataformas

Algunas empresas no solo no ayudan dificultan. Meta, por ejemplo, ha implementado sistemas que, según los investigadores, "agregan 'algo de ruido' a la red de los investigadores". Traducción sus algoritmos de cifrado y privacidad, aunque justificados por la protección de datos, impiden el rastreo de contenido ilegal. No es un fallo técnico es una decisión arquitectónica que limita la visibilidad sobre lo que ocurre en sus plataformas. Y mientras tanto, los criminales migran a servicios poco regulados, donde la IA generativa se ofrece como un servicio al alcance de cualquiera.

Un investigador retirado, con 30 años en brigadas de seguridad infantil, lo resumió con una metáfora que no olvidaré "Es, básicamente, como pescar con dinamita". No se trata de precisión, sino de destrucción. No se busca justicia, sino caos. Y en medio de esa explosión, los más pequeños pagan el precio.

La tecnología no es mala por naturaleza, pero tampoco es neutral. Cada innovación lleva consigo un espacio de abuso, y en el caso de los menores, ese espacio se convierte en un abismo. No podemos seguir admirando los avances mientras ignoramos lo que se arrastra en su sombra. Porque detrás de cada imagen generada, hay un niño real. Detrás de cada cifra, un grito. Y detrás del silencio cómplice, una responsabilidad que ya no puede posponerse.

Sobre el autor
Redacción
Ver biografía