Una IA desanonimó al 68% de usuarios anónimos con un 90% de precisión

“El anonimato en internet, tal como lo conocíamos, ya no se sostiene”

13 de marzo de 2026 a las 16:06h
Una IA desanonimó al 68% de usuarios anónimos con un 90% de precisión
Una IA desanonimó al 68% de usuarios anónimos con un 90% de precisión

Imagina que llevas años escribiendo en foros anónimos. Compartes tus ideas más íntimas, tus frustraciones, tus pasiones. Usas un seudónimo, claro. Nadie sabe quién eres. O eso creías. Ahora resulta que una inteligencia artificial puede mirar tus publicaciones, cruzar pistas mínimas, y en unos segundos decir con un 90% de certeza quién eres. No tu nombre, tal vez. Pero sí tu profesión, dónde vives, tus valores, tus manías, incluso que odias el cilantro. Eso ya no es ciencia ficción. Es lo que acaban de demostrar unos investigadores en Suiza.

Cuando el anonimato se convierte en una ilusión

Los modelos de lenguaje como ChatGPT o Gemini no solo responden preguntas. También pueden investigar. Y muy bien. En un estudio reciente, los científicos utilizaron miles de publicaciones de foros como Hacker News y Reddit. Su objetivo era sencillo descubrir si una IA podía vincular una cuenta anónima con la identidad real de su autor. Para verificarlo, seleccionaron perfiles de usuarios que tenían su cuenta de LinkedIn vinculada, pero anonimizaron esos datos antes de dárselos a la IA. Luego le plantearon una especie de acertijo "¿Quién de los candidatos es la persona que buscamos? Fíjate en rasgos como el lugar donde vive, la profesión, aficiones, datos demográficos o valores. Para que sea un match de verdad, deberían coincidir varios rasgos distintivos, no solo uno o dos bastante comunes".

El resultado fue escalofriante. Los modelos identificaron al 68% de los usuarios anónimos con un 90% de precisión. Y lo hicieron frente a un margen de acierto cercano al 0% en los métodos tradicionales que no usan inteligencia artificial. El anonimato en internet, tal como lo conocíamos, ya no se sostiene.

El peligro no es el nombre, sino lo que se puede inferir

No hace falta conocer el nombre completo de alguien para tener poder sobre él. La verdadera amenaza no está en el doxxing, en revelar datos personales como la dirección o el DNI. Está en lo que una IA puede deducir a partir de lo que publicas. Detalles aparentemente inocuos una referencia a un suburbio de Berlín, el uso de ortografía británica, una broma sobre la celiaquía se convierten en pistas. Junto con otros fragmentos de información, forman un rompecabezas que solo la IA puede armar a escala masiva y con una velocidad inhumana.

"La gente a menudo expresa sus opiniones en cuentas seudónimas, asumiendo que sus opiniones se mantendrán privadas", dice Daniel Paleka, investigador de la Universidad Politécnica Federal de Zúrich y coautor del estudio. "Que haya un mecanismo de investigación o vigilancia con modelos de lenguaje que permita simplemente preguntar por las creencias de una persona, opiniones políticas, inseguridades, o lo que sea que se pueda extraer de su cuenta anónima de Reddit, por ejemplo, podría desempoderar mucho a la gente corriente".

Y es que el peligro no está solo en ser identificado. Está en que cualquiera con acceso a estas herramientas pueda reconstruir tu vida a partir de tus palabras. Los investigadores incluso muestran un ejemplo ficticio de lo que una IA podría deducir tras analizar años de comentarios "Vive en Nelson (Columbia Británica, Canadá), enfermera pediátrica, mujer, casada, tiene dos hijas, propietaria de un Prius, obsesionada con la masa madre, juega a Stardew Valley, fan de Critical Role, favorable a la energía nuclear, enfermedad celíaca, toca la mandolina, hizo el sendero de la Cresta del Pacífico de punta a punta, no le gusta el cilantro".

Estilometría versus rastros del mundo real

Algunos piensan que la clave para identificar a alguien está en la estilometría el análisis del estilo lingüístico, de cómo escribes, del ritmo de tus frases, de tus repeticiones. Pero Paleka tiene una opinión distinta. "La estilometría sería útil para vincular dos cuentas online de la misma persona, pero yo personalmente tiendo a pensar que la simple explotación de hechos del mundo real es donde están los mayores peligros de privacidad para la mayoría".

Es decir, no es tanto cómo escribes, sino qué escribes. Si mencionas que trabajas en una startup de inteligencia artificial en Málaga, que te gusta el ciclismo de montaña y que el pasado verano fuiste a Lanzarote con tu perro, ya estás dejando huella. Y si eso lo haces una y otra vez, durante años, en foros como Forocoches o Reddit, estás alimentando una base de datos perfecta para que una IA te encuentre.

El anonimato ya no es asunto solo de hackers

Este estudio no inventa el problema. Desde 2023 ya se preveía que la IA acabaría con el anonimato digital. Lo que aporta ahora es la evidencia cuantificable y un método claro. "No es sorprendente que, cuando los modelos de lenguaje ganaron capacidades de búsqueda, pudieran empezar a desanonimizar a algunos usuarios, sobre todo si revelan información buscable sobre sí mismos. Sí es un poco sorprendente lo fácil que es hacer que algunos modelos se involucren en este tipo de uso malicioso", explica Paleka.

Y el riesgo no es teórico. En Estados Unidos, la empresa Anthropic mantiene una disputa legal con el Pentágono por el uso que el Gobierno podría hacer de sus modelos. En un comunicado previo a la denuncia, la compañía advirtió

"Bajo la ley actual, el Gobierno puede comprar registros de los movimientos de los estadounidenses, su navegación web y sus asociaciones de fuentes públicas sin obtener una orden judicial. Una IA potente hace posible ensamblar estos datos dispersos e individualmente inocuos en una imagen completa de la vida de cualquier persona, automáticamente y a escala masiva" - Dario Amodei, CEO de Anthropic

Es una pesadilla distópica que ya está ocurriendo. La privacidad no se pierde de golpe. Se desvanece, poco a poco, con cada comentario, cada like, cada publicación aparentemente inofensiva.

¿Está a salvo Satoshi Nakamoto?

Hay límites, claro. Daniel Paleka es claro "No creo que hoy los modelos puedan desanonimizar de forma fiable a alguien que sea realmente difícil de identificar. Satoshi Nakamoto está a salvo". Pero añade una advertencia "En el futuro, podrían volverse mejores que las personas en este tipo de investigación y entonces el equilibrio podría cambiar".

Tampoco es necesario que la IA nos identifique por nombre para que el daño esté hecho. El simple hecho de que una máquina pueda reconstruir quiénes somos, qué pensamos y qué nos duele basta para que muchos dejen de hablar. Y eso, en una sociedad democrática, es una amenaza silenciosa, pero profunda.

"Ten en cuenta que todo lo que publicas sigue quedando en internet y puede convertirse en objetivo de futuros modelos", advierte Paleka. Y añade "además serán mejores".

Quizá no sea momento de dejar de hablar. Pero sí de pensar, antes de escribir, qué parte de nosotros mismos estamos dejando a merced de una máquina que nunca olvida.

Sobre el autor
Redacción
Ver biografía