ChatGPT, Perplexity y Grok exponen chats y datos con rastreadores de Meta y Google, según IMDEA Networks

Un estudio de IMDEA Networks advierte que chatbots como ChatGPT, Claude, Perplexity y Grok tienen fallos de privacidad: rastreadores de terceros pueden revelar conversaciones, páginas visitadas y metadatos.

06 de mayo de 2026 a las 09:13h
ChatGPT, Perplexity y Grok exponen chats y datos con rastreadores de Meta y Google, según IMDEA Networks
ChatGPT, Perplexity y Grok exponen chats y datos con rastreadores de Meta y Google, según IMDEA Networks

Sam Altman, director ejecutivo de OpenAI, explicó en un pódcast: "No estamos tan lejos de un modelo de IA que lo sabe todo de tu contexto, sobre ti, sobre tu vida. Que sabe todo lo que haces y lo que te importa, que conoce a toda la gente que forma parte de tu vida".

Esa promesa de omnisciencia digital choca frontalmente con una realidad técnica mucho más frágil y menos segura de lo que sugiere el marketing. Un reciente estudio del IMDEA Networks Institute advierte que productos como ChatGPT, Perplexity, Claude o Grok tienen riesgos estructurales que comprometen la intimidad de los usuarios.

La privacidad es una ilusión óptica

La falta de privacidad afecta también a los chatbots de OpenAI, Anthropic, Perplexity o xAI, de Elon Musk. Esos productos integran rastreadores de terceros como Meta o Google en sus interfaces web.

Los rastreadores pueden exponer los temas de conversación de los usuarios, las páginas web visitadas e incluso capturas de pantalla. La generación de capturas de pantalla se da solamente en Grok.

La investigación indica que también podrían filtrar la identidad de los usuarios y metadatos confidenciales. Este flujo de información ocurre mientras el usuario cree estar interactuando en un entorno cerrado y protegido.

Solo hace falta un simple enlace a una conversación para acceder a su contenido.

Puertas abiertas en los controles de acceso

Los mecanismos de control de acceso de los grandes modelos de lenguaje son inseguros. Todos los chats son, en la práctica, públicos para cualquiera que tenga la URL, lo que anula cualquier expectativa de confidencialidad real.

Los controles de privacidad ofrecidos por esos chatbots son potencialmente engañosos. Esos controles pueden inducir a error a los usuarios al dar a entender que ofrecen protecciones más sólidas de las que realmente se aplican.

Los formularios de consentimiento de cookies presentan otras deficiencias de transparencia. Esta opacidad no es un error técnico aislado, sino una característica sistémica del diseño actual.

El problema detectado es una extensión de dinámicas económicas subyacentes basadas en datos que dan forma al Internet actual. Gigantes como Google, Meta o TikTok colocan sus rastreadores en la web para medir el comportamiento de los usuarios y vender esa información a los anunciantes.

Empresas que operan a la vez como proveedores de IA y rastreadores se convierten en un modelo de amenaza diferente. La convergencia de roles crea conflictos de interés inherentes a la arquitectura del servicio.

El estudio indica aún no dispone de pruebas de que los rastreadores lean esas conversaciones. Sin embargo, la mera presencia de estos códigos de seguimiento basta para generar vulnerabilidades graves.

Los autores indican que próximamente ampliarán la investigación para incluir otros servicios como Gemini, Copilot o Meta AI. La expansión de la inteligencia artificial genera nuevas superficies de ataque que la regulación apenas comienza a vislumbrar.

La tensión entre la utilidad inmediata de estas herramientas y la cesión silenciosa de datos personales define la experiencia actual del usuario. Mientras la tecnología avanza hacia ese modelo que lo sabe todo, los cimientos de la privacidad se desmoronan sin ruido ni aviso previo.

Sobre el autor
Redacción
Ver biografía