La UE prohíbe el 'deepnude' no consensuado tras el caso Grok de Elon Musk

Bruselas y el Parlamento Europeo acuerdan vetar las herramientas de IA que generen imágenes, vídeos o sonidos sexuales sin consentimiento. La norma se aplicará desde el 2 de diciembre de 2026.

08 de mayo de 2026 a las 11:44h
La UE prohíbe el 'deepnude' no consensuado tras el caso Grok de Elon Musk
La UE prohíbe el 'deepnude' no consensuado tras el caso Grok de Elon Musk

La Unión Europea ha trazado una línea roja clara frente al abuso de la inteligencia artificial. Los estados miembros y el Parlamento Europeo alcanzaron un acuerdo este jueves para prohibir las herramientas capaces de generar imágenes desnudas de personas sin su consentimiento.

Bruselas prohíbe el 'deepnude' no consensuado en toda la UE

Esta iniciativa responde a una amenaza concreta que escaló recientemente con la introducción de una función en Grok, el asistente de inteligencia artificial de Elon Musk. Esta herramienta permitía solicitar la creación de imágenes hiperrealistas de adultos y niños desnudos a partir de fotografías reales, vulnerando la privacidad de las víctimas.

"Herramienta peligrosa" - Giorgia Meloni, primera ministra de Italia

La reacción política fue inmediata tras la difusión de fotos falsas con la imagen de la propia primera ministra italiana generadas por IA. Giorgia Meloni denunció públicamente estos hechos y calificó la tecnología como un instrumento de alto riesgo para la seguridad personal y la dignidad.

El texto legislativo define con precisión quirúrgica qué queda fuera de la ley. La prohibición se dirige a los sistemas que permiten crear imágenes, videos y sonidos de carácter pedopornográfico. También abarca cualquier contenido que represente las partes íntimas de una persona identificable o la muestre participando en actividades sexuales sin su autorización expresa.

Las plataformas tendrán dos años para blindar sus sistemas

No entrará en vigor de inmediato. La nueva reglamentación se aplicará a partir del 2 de diciembre de 2026. Este plazo otorga a la industria tecnológica un margen de maniobra para adaptar sus algoritmos y cumplir con los nuevos estándares éticos y legales.

Para esa fecha, los servicios de inteligencia artificial deberán contar con medidas de seguridad robustas. Estos mecanismos técnicos les impedirán generar este tipo de contenidos ilícitos, obligando a las empresas a integrar la protección de la víctima desde el diseño del software.

La medida forma parte de una revisión más amplia de la legislación europea sobre la IA, una ley marco aprobada formalmente hace dos años. Los 27 países miembros y los eurodiputados acordaron simultáneamente aplazar la entrada en vigor de otras normas destinadas a regular los sistemas de inteligencia artificial de alto riesgo, priorizando así la lucha contra la violencia digital sexual.

Sobre el autor
Redacción
Ver biografía