Gemini asigna el número personal de Daniel Abraham a PayBox y le llegan mensajes de clientes

Un fallo del chatbot de Google expuso el teléfono de un ingeniero israelí como contacto oficial de una plataforma de pagos, mientras los expertos alertan de nuevos riesgos para la privacidad.

17 de mayo de 2026 a las 13:47h
Gemini asigna el número personal de Daniel Abraham a PayBox y le llegan mensajes de clientes
Gemini asigna el número personal de Daniel Abraham a PayBox y le llegan mensajes de clientes

El teléfono de Daniel Abraham comenzó a vibrar con mensajes de WhatsApp de desconocidos que buscaban atención al cliente. El chatbot Gemini había asignado su número personal como contacto oficial de PayBox, una plataforma de pagos.

Abraham, ingeniero de software israelí, pensó inicialmente que se trataba de spam. La situación escaló cuando comprendió que la inteligencia artificial estaba derivando tráfico real hacia su dispositivo móvil sin su consentimiento.

"¿Qué ocurriría si pregunta por dinero en lugar de resolver un problema?" - Daniel Abraham, ingeniero de software

La raíz del error reside en un dato antiguo. Su número apareció en una página local en 2015. Los expertos vinculan este incidente con el uso de información personal identificable presente en los grandes conjuntos de datos de entrenamiento.

Los chatbots reducen la barrera para localizar a personas

Meira Gilbert, investigadora de la Universidad de Washington, verificó un caso similar con Yael Eiger. Al buscar sus datos de contacto, Gemini mostró el teléfono personal de Eiger, quien lo había publicado meses antes exclusivamente para un taller tecnológico.

Eiger, también investigadora, subraya la diferencia entre compartir datos en un contexto acotado y que una herramienta los haga accesibles a cualquier usuario. La exposición inicial era limitada; la respuesta del modelo es universal.

Gilbert señala que, aunque la información sea técnicamente pública, los sistemas de inteligencia artificial alteran el esfuerzo necesario para encontrarla. La tecnología elimina las fricciones que antes protegían la privacidad por oscuridad.

Las solicitudes de borrado aumentaron un 400 %

Rob Shavell, cofundador y director ejecutivo de DeleteMe, reporta un cambio drástico en el comportamiento de los usuarios. Las consultas relacionadas con la inteligencia artificial generativa han aumentado un 400 % en los últimos siete meses.

Los afectados mencionan específicamente herramientas como ChatGPT, Claude o Gemini. Google y OpenAI disponen de portales para solicitar la eliminación de estos datos, pero no garantizan resultados inmediatos ni definitivos.

Jennifer King, especialista en privacidad del Instituto de Inteligencia Artificial Centrada en el Ser Humano de la Universidad de Stanford, observa una laguna legal. Las normativas actuales suelen proteger la información entregada directamente a las compañías, no la inferida o recuperada por modelos.

Ante la lentitud de los mecanismos de corrección, los expertos recomiendan limitar al máximo la huella digital previa. La prevención sigue siendo la única defensa efectiva contra el reentrenamiento de los modelos con datos personales expuestos.

Sobre el autor
Redacción
Ver biografía