Las gafas inteligentes no son una novedad absoluta, pero las Ray-Ban Meta 2 han cruzado una línea. No solo se parecen a unas gafas de sol normales, sino que parecen observarte. Y lo hacen con una capacidad que muchos usuarios quizá no terminan de entender pueden grabar todo lo que tú ves, todo lo que tú dices, y también lo que otros hacen a tu alrededor, sin que ellos lo sepan. Lo que sucede después con esas imágenes y sonidos es aún más inquietante.
El ojo que todo lo vey lo almacena
Cuando activas las Ray-Ban Meta 2, ya sea pulsando un botón físico o diciendo "Ey Meta", la IA entra en funcionamiento. En ese momento, el dispositivo captura audio, vídeo, imágenes, texto. Y aunque Meta asegura que algunos datos se procesan localmente, la realidad es que para que el asistente funcione, buena parte de esa información debe enviarse a servidores externos. La IA necesita Internet. Y eso significa que tus datos salen de tus manos.
El problema no es solo dónde van esos datos, sino quién los ve. Según un reportaje que ha sacado a la luz prácticas poco conocidas, parte del proceso de entrenamiento de la inteligencia artificial se hace de forma manual. Y en lugares lejanos. En Kenia, por ejemplo, una empresa llamada Sama contrata a trabajadores para revisar fragmentos de vídeos y fotos enviados desde las gafas de usuarios de todo el mundo. Su tarea etiquetar. Dibujar contornos alrededor de personas, nombrar objetos, identificar señales de tráfico. Un trabajo técnico, sí, pero con un matiz escalofriante.
"En algunos vídeos se puede ver a alguien yendo al baño o quitándose la ropa. No creo que lo sepan, porque si no, no grabarían" - Empleado de Sama, contratista de Meta en Kenia
Y es que las gafas no distinguen entre lo público y lo íntimo. Pueden grabar a alguien desnudándose, manteniendo relaciones sexuales, introduciendo una contraseña en un cajero. Y aunque Meta afirma que los algoritmos anonimizan automáticamente caras y datos sensibles, antiguos empleados de centros de etiquetado en Estados Unidos reconocen que "los algoritmos, a veces, se pierden". Sobre todo en condiciones de poca luz, en interiores, en movimientos rápidos. En esos casos, los cuerpos, los rostros, las expresiones quedan perfectamente visibles.
El trabajo invisible que alimenta la IA
Detrás de cada avance en inteligencia artificial hay un ejército de trabajadores invisibles. En Kenia, India, Filipinas, miles de personas revisan contenidos que alimentan los algoritmos. Lo llamamos "etiquetado de datos", pero en realidad es una forma de vigilancia humana a gran escala. En este caso, no se trata solo de identificar un coche o una silla. Se trata de ver fragmentos de la vida privada de personas que ni siquiera saben que están siendo observadas.
Y no es un fenómeno aislado. Hace años, OpenAI ya utilizaba a trabajadores en Kenia para el mismo tipo de tareas. Waymo, la división de conducción autónoma de Google, empleaba a operadores en Filipinas para "llevar" vehículos a distancia cuando el sistema no sabía cómo reaccionar. La automatización, en muchos casos, no elimina el trabajo humano, lo traslada al otro lado del mundo, a salarios bajos y condiciones precarias.
En Sama, los empleados reconocen que están viendo de todo. "La gente puede grabarse a sí misma de la manera equivocada y no saber que lo está haciendo". Y si esos clips alguna vez se filtran, advierten, sería un "escándalo enorme". Pero el escándalo no solo sería la filtración. El verdadero problema es que ese material ya existe, ya se almacena, ya se utiliza. Y los usuarios no tienen control sobre su destino final.
¿Dónde están mis datos?
Meta afirma que todo se hace bajo los Términos de Servicio y la Política de Privacidad de Meta AI. Y es cierto si usas el asistente, debes aceptar que tus interacciones puedan ser revisadas, "de forma automatizada o manual". Además, la compañía advierte no compartas información sobre temas delicados si no quieres que la IA la use o retenga. Pero esta advertencia suena casi irónica. Porque, ¿cómo sabes qué es delicado hasta que lo has grabado? ¿Cómo puedes controlar lo que captan tus gafas mientras caminas por la calle, entras en tu casa o hablas con un amigo?
Un ejecutivo de Meta, citado anónimamente, ha dicho que no importa dónde se almacenen los datos, "siempre y cuando el país cumpla con los requisitos de la Unión Europea". Pero incluso eso es discutible. Hace poco, Meta fue multada en la UE por almacenar contraseñas de millones de usuarios en texto plano. Y en Texas, tendrá que pagar 1.400 millones de dólares por usar reconocimiento facial sin permiso. La historia de Meta con la privacidad está llena de advertencias incumplidas.
Muchos minoristas que venden las gafas aseguran, equivocadamente, que "todo se queda localmente en la app". No es cierto. La IA no funciona sin conexión. Y sin procesamiento externo, no puede responder a preguntas como "¿qué coche es ese?" o "¿quién es esa persona?". Pero esa creencia refleja algo más profundo una desconexión entre lo que el usuario piensa que está ocurriendo y lo que realmente ocurre.
"Creo que, si supieran el alcance de la recopilación de datos, nadie se atrevería a usar las gafas" - Trabajador de centro de datos en Kenia
El precio humano de la comodidad digital
El caso de los moderadores de contenido en Barcelona ya nos dio una pista de lo que ocurre cuando humanos están expuestos a lo peor de lo que la red puede ofrecer. Allí, empleados revisaron miles de vídeos con violencia extrema, pornografía infantil, suicidios en directo. Muchos desarrollaron trastornos de estrés postraumático. Algunos demandan ahora indemnizaciones millonarias. Y eso era solo moderación. Ahora, con el etiquetado de datos de IA, el riesgo se expande. No solo se ven escenas violentas. Se ven intimidades cotidianas, sin consentimiento, sin aviso.
Esa exposición no es un fallo técnico. Es parte del sistema. Para que la IA reconozca un cuerpo, debe ver cuerpos. Para que entienda una conversación, debe escuchar conversaciones. Y si el usuario activa el dispositivo en un momento inadecuado, el sistema no lo sabe. Solo graba.
Mientras tanto, 60 países han firmado un acuerdo para promover una inteligencia artificial "abierta", "inclusiva" y "segura". Estados Unidos y Reino Unido no lo han hecho. Y empresas como Meta siguen operando en los bordes de la ética, aprovechando lagunas legales, diferencias salariales y la desconexión entre lo que decimos y lo que hacemos con la tecnología.
Usamos gafas, teléfonos, asistentes porque nos hacen la vida más fácil. Pero cada vez es más difícil ignorar la pregunta ¿a qué costo humano, a qué costo de privacidad, a qué costo de dignidad se construye esa comodidad?