Meta y TikTok rastrean chats de IA: Grok y Perplexity dejaban enlaces públicos por defecto

Una investigación de Imdea Networks revela que Meta y TikTok reciben datos vinculados a conversaciones con IA, mientras Grok y Perplexity expusieron enlaces públicos por defecto hasta el 3 de abril.

06 de mayo de 2026 a las 07:35h
Meta y TikTok rastrean chats de IA: Grok y Perplexity dejaban enlaces públicos por defecto
Meta y TikTok rastrean chats de IA: Grok y Perplexity dejaban enlaces públicos por defecto

La interfaz de un chatbot invita a la confianza porque simula una conversación humana y directa. Esta cercanía aparente esconde una realidad técnica mucho más fría y comercial.

Meta y TikTok reciben datos vinculados a las conversaciones que los usuarios mantienen con asistentes de inteligencia artificial. La investigación revela que la infraestructura publicitaria tradicional opera debajo de la capa de diálogo natural.

La privacidad queda expuesta por defecto

Guillermo Suárez-Tangil, coautor e investigador de Imdea Networks, detalla que en Grok o Perplexity los enlaces eran públicos por defecto hasta el 3 de abril. Cualquier persona que conociera la dirección URL podía leer el intercambio entero sin barreras.

"En Grok o Perplexity, hasta el 3 de abril estos enlaces eran públicos por defecto [en esa fecha empezó un juicio contra Perplexity en EE UU precisamente por instalar rastreadores que transmiten las conversaciones de los usuarios a Meta y Google en tiempo real], de modo que cualquiera que conociera la dirección URL podía leer el intercambio entero, ya que no había ningún mecanismo de control de acceso" - Guillermo Suárez-Tangil, coautor e investigador de Imdea Networks

Ese mismo día inició un juicio en Estados Unidos contra Perplexity por instalar rastreadores que enviaban chats a Meta y Google en tiempo real. El riesgo de exposición masiva dejó de ser teórico para convertirse en un expediente judicial.

No existe evidencia confirmada de que terceros hayan leído el contenido de esas conversaciones privadas. El peligro reside en la ausencia total de controles de acceso durante meses.

El título revela la intención del usuario

ChatGPT y Claude comparten con terceros el título de cada conversación. Este dato parece inocuo pero revela información crítica sobre la intención de la consulta y los intereses personales del usuario.

"Siempre ha quedado claro que el propio proveedor de IA procesa tus conversaciones, algo necesario para que el servicio funcione. Lo que muestra nuestra investigación es que empresas de publicidad de terceros como Meta y TikTok también reciben datos vinculados a esas conversaciones" - Guillermo Suárez-Tangil, coautor e investigador de Imdea Networks

Los rastreadores identificados pertenecen a gigantes tecnológicos que ya dominan el ecosistema digital. La novedad radica en la aplicación de estas herramientas de vigilancia a un formato de interacción tan íntimo como el chat.

La complejidad legal como escudo corporativo

Jorge García Herrero, abogado colaborador en la investigación, indica que la UE impone formas muy concretas de informar sobre tratamientos de datos complejos. Las empresas deberían adaptar sus avisos a esta exigencia de transparencia.

"Estas cuatro empresas, en vez de cumplirlo, abusan de la complejidad de sus políticas de privacidad para aturdirnos con largos textos y conceptos genéricos, omitiendo el punto clave: que facilitan a gigantes de la publicidad personalizada los temas de tus conversaciones con sus chats de IA, y en algunos casos, el texto entero" - Jorge García Herrero, abogado colaborador en la investigación

OpenAI, Anthropic, Perplexity y xAI no respondieron a las solicitudes de reacción sobre esta investigación. El silencio corporativo contrasta con la magnitud de los hallazgos técnicos presentados.

Confiamos porque la herramienta parece útil

Aniketh Girish, coautor e investigador de Imdea Networks, señala que la tecnología es genuinamente nueva y la conciencia sobre los riesgos no ha avanzado al mismo ritmo. La falta de familiaridad juega en contra de la protección del usuario.

"Es en parte porque la tecnología es genuinamente nueva y la conciencia sobre los riesgos no ha ido al mismo ritmo" - Aniketh Girish, coautor e investigador de Imdea Networks

La naturaleza humana tiende a confiar en las herramientas que resultan útiles y cercanas. La gente subestima el riesgo porque la interfaz parece una conversación y no una página web estándar.

Narseo Vallina, investigador de Imdea Networks y coautor del trabajo, afirma que los modelos de lenguaje transformarán cómo las personas interactúan con los servicios online. Estos cambios afectarán directamente a tareas cotidianas como trabajar o comprar.

"Nuestros hallazgos sugieren que, aunque los modelos de monetización todavía están evolucionando, los proveedores de IA están adoptando los modelos de negocio tradicionales de la tecnología publicitaria" - Narseo Vallina, investigador de Imdea Networks y coautor del trabajo

Por debajo de la apariencia innovadora persiste la misma infraestructura publicitaria que nos ha estado rastreando durante 20 años. La IA no elimina la vigilancia sino que la integra en el flujo natural del diálogo.

Sobre el autor
Redacción
Ver biografía