371 científicos alertan: ningún sistema de verificación de edad es seguro ni eficaz a escala global

"Las conversaciones actuales sobre regular redes sociales, chatbots de IA o mensajería implicarían que todo el mundo menores y adultos tendría que demostrar su edad para hablar con amigos y familia, leer noticias o buscar información."

06 de marzo de 2026 a las 11:35h
371 científicos alertan: ningún sistema de verificación de edad es seguro ni eficaz a escala global
371 científicos alertan: ningún sistema de verificación de edad es seguro ni eficaz a escala global

Imagina que cada vez que entras a una librería, a una cafetería o a una plaza pública, alguien te pidiera tu documento de identidad para comprobar que tienes edad suficiente para estar allí. Suena extraño, ¿verdad? Pues eso es exactamente lo que podría pasar en internet si algunas propuestas de regulación avanzan sin cuestionamientos serios. Un grupo de 371 científicos especializados en seguridad y privacidad de 30 países está alzando la voz. Entre ellos figuran mentes brillantes como Ron Rivest, ganador del premio Turing, y 24 profesores de centros españoles. No están en contra de proteger a los menores, pero sí alertan sobre las consecuencias invisibles de una medida que suena inocua la verificación obligatoria de edad en línea.

¿Qué es lo que proponen?

La idea parece sencilla. Para acceder a redes sociales, mensajería o contenidos sensibles, debes demostrar tu edad. Pero en la práctica, esa verificación puede tomar formas muy distintas. Algunas plataformas ya han probado métodos como la comprobación con imagen del documento de identidad, el reconocimiento facial, el uso de tarjeta de crédito o incluso la inferencia algorítmica basada en el comportamiento. También están las opciones más controladas, como el consentimiento parental o el uso de credenciales de identidad digital, como las billeteras digitales que promueve la Unión Europea. Cada una de estas tecnologías trae consigo riesgos distintos, pero todos comparten un mismo problema ninguna ha demostrado ser segura, eficaz o respetuosa con la privacidad a escala global.

La carta que nadie quiere leer

Los científicos han redactado una carta pública estructurada en cuatro críticas fundamentales. La primera es que no hay pruebas de que estos sistemas puedan implementarse de forma eficaz en internet sin causar daños graves. La segunda, que no se ha evaluado cómo afectarán a la privacidad de todos los usuarios. La tercera, que no se ha abierto un debate serio sobre tecnologías que realmente mejoren la privacidad. Y la cuarta, la más contundente si los problemas superan a los beneficios, el despliegue no está justificado.

Esto no es alarmismo. Es una advertencia técnica desde la primera línea de defensa quienes entienden cómo funcionan los sistemas digitales, cómo se explotan y cómo se rompen. Y lo que están diciendo es que estamos a punto de construir una infraestructura que podría convertir internet en un espacio de constante fiscalización, donde cada clic requiera una prueba de identidad.

El fantasma del control permanente

"Las conversaciones actuales sobre regular redes sociales, chatbots de IA o mensajería implicarían que todo el mundo menores y adultos tendría que demostrar su edad para hablar con amigos y familia, leer noticias o buscar información. Algo que va muchísimo más allá de lo que jamás ha pasado en nuestra vida fuera de internet"

Esta frase resume el miedo no a la protección de los menores, sino al precedente que se está creando. No se trata de permitir el acceso a contenido dañino, sino de preguntarse si la solución no es peor que el problema. Forzar la verificación de edad en todos los rincones de internet puede normalizar la vigilancia generalizada. Y una vez normalizada, será difícil volver atrás.

¿Y la identidad digital europea?

En la Unión Europea se habla con optimismo de la Cartera Europea de Identidad Digital, un sistema que promete ofrecer una forma segura y privada de acreditar datos personales. Pero según los firmantes de la carta, esta promesa aún no se ha cumplido. La infraestructura aún no se ha desplegado, el sistema de revocación no está resuelto y la interoperabilidad más allá de Europa ni siquiera se ha abordado.

"Promete resolver algunos de estos retos en el plano europeo; sin embargo, la infraestructura aún no se ha desplegado, el sistema de revocación todavía no está resuelto y la interoperabilidad más allá de la Unión Europea ni siquiera se ha abordado"

En otras palabras, estamos apostando por una solución técnica que aún no existe, mientras avanzamos con medidas que podrían volverse obligatorias en cuestión de meses.

El ejemplo de Discord cuando la tecnología falla

En febrero, Discord lanzó un sistema de verificación de edad que combinaba reconocimiento facial y análisis de comportamiento. El resultado fue un fracaso parcial. Antes de que terminara el mes, la plataforma lo retiró. Uno de sus cofundadores lo admitió sin rodeos "Muchos de vosotros simplemente habéis dejado de usar la app". No era solo una cuestión de usabilidad. Era una señal clara de que los usuarios no están dispuestos a sacrificar su privacidad por una medida cuya eficacia es, en el mejor de los casos, anecdótica.

¿Funcionan realmente estos sistemas?

"En el mundo digital no existen las mismas restricciones que en el físico y, por tanto, no podemos esperar que las medidas del mundo físico apliquen al digital"

Carmela Troncoso, profesora en la Escuela Politécnica de Lausana y directora científica en el Instituto Max Planck para la Seguridad y Privacidad, lo tiene claro. Las fronteras físicas no existen en internet. En el mundo real, no puedes entrar en un casino en España sin DNI. Pero tampoco puedes teletransportarte a Mónaco ni usar una máscara falsa sin que se note. En el mundo digital, en cambio, teletransportarse es tan fácil como cambiar una IP y usar un deepfake es casi indistinguible de la realidad.

"Cuando no puedo entrar en un casino en España sin DNI, la razón por la que no puedo entrar a otro casino en otro país que no tiene las mismas medidas es porque no puedo teletransportarme o no puedo ponerme una máscara que no se note que es artificial. En el mundo digital esas restricciones no existen. Es trivial teletransportarse o usar un deepfake"

Y si la evidencia de que estos sistemas funcionan es tan débil, ¿por qué avanzamos tan rápido? Troncoso es directa "No hay estudios que hayan analizado estas preguntas de manera sistemática y den evidencia científica de pros o contras". La base científica es, en gran medida, inexistente.

¿Qué deberíamos hacer entonces?

Troncoso también tiene una respuesta para los padres preocupados. Primero, les recuerda que no estamos hablando de los lugares oscuros de internet, sino de espacios comunes redes sociales, juegos, mensajería. Lugares que tienen partes nocivas, sí, pero también muchos beneficios conexión, aprendizaje, expresión.

"Primero, que no estamos hablando de los lugares oscuros de internet, sino de redes sociales, juegos y mensajería que tienen partes nocivas y otras beneficiosas"

Y segundo, les da una dirección clara "Segundo, que si de verdad les preocupan las redes sociales, presionen a los gobiernos para que regulen los algoritmos tóxicos, e intentemos como sociedad mantener los beneficios del mundo digital".

Quizá la solución no esté en controlar quién entra, sino en cambiar qué hay dentro. En lugar de construir muros digitales que afectan a todos, deberíamos exigir plataformas más seguras, más transparentes, menos adictivas. La protección de los menores no debe convertirse en la excusa para normalizar la vigilancia masiva.

Y mientras los gobiernos debaten, los científicos ya han enviado su mensaje. Ahora toca escucharlos.

Sobre el autor
Redacción
Ver biografía