MetLife, Burger King y McDonald's usan IA que vigila tu cara en el trabajo y Europa ya la prohíbe

Sistemas como MorphCast, HireVue y Aware analizan rostro, voz y chats para medir atención o positividad. El mercado ya vale 3.000 millones y la UE prohíbe su uso laboral.

08 de mayo de 2026 a las 08:12h
MetLife, Burger King y McDonald's usan IA que vigila tu cara en el trabajo y Europa ya la prohíbe
MetLife, Burger King y McDonald's usan IA que vigila tu cara en el trabajo y Europa ya la prohíbe

Un algoritmo observa tu rostro mientras trabajas y decide si tu expresión resulta suficientemente positiva para la empresa.

Esta vigilancia digital no pertenece a una distopía futura, sino que opera hoy en oficinas de grandes corporaciones. Herramientas como MorphCast, HireVue o la integración de Slack llamada Aware llevan años perfeccionando estos sistemas de escrutinio constante.

El software interpreta gestos sin contexto humano

Algunas aplicaciones escanean videoconferencias en tiempo real para detectar niveles de atención, emoción o positividad. Otras procesan transcripciones de chat para inferir el estado de ánimo colectivo de un equipo completo. Incluso existen soluciones que analizan el tono de voz de los agentes de atención al cliente llamada a llamada.

MetLife, Burger King y McDonald's ya usan o han probado estas tecnologías de supervisión emocional en sus plantillas. El mercado global de esta inteligencia artificial ha alcanzado los 3.000 millones de dólares y las previsiones apuntan a que se triplicará antes de 2030.

La base técnica de estos sistemas suele apoyarse en la teoría de las emociones básicas del psicólogo Paul Ekman. Este modelo postula la existencia de seis emociones universales que supuestamente son reconocibles en el rostro humano de forma inmediata.

Los sesgos raciales distorsionan los resultados automáticos

La neurocientífica Lisa Feldman Barrett defiende que los gestos faciales carecen de un significado emocional intrínseco. Para ella, el sentido de una expresión es relacional y depende del contexto, no de una configuración muscular fija.

Un estudio de 2018 descubrió que una IA de reconocimiento emocional catalogaba sistemáticamente a los jugadores negros de la NBA como más enfadados que a sus compañeros blancos. El software cometía este error incluso cuando los atletas sonreían durante las interacciones.

"Las tecnologías más extractivas llegan primero a los trabajadores más vulnerables" - Cory Doctorow, escritor

El escritor Cory Doctorow teorizó que estas herramientas se normalizan entre los empleados con menor poder de negociación. Una vez aceptadas, ascienden en la jerarquía laboral hasta afectar a todo tipo de profesionales.

Europa prohíbe el control emocional en el trabajo

La Unión Europea prohibió el uso de emotion AI en el ámbito laboral dentro de su Ley de IA. La normativa permite excepciones muy restringidas, limitadas exclusivamente a fines médicos o de seguridad física.

En Estados Unidos, la legislación actual da a los empleadores un margen amplísimo para monitorizar prácticamente cualquier cosa. Los trabajadores pueden ser vigilados en tiempo real siempre que utilicen dispositivos o propiedades de la empresa.

La divergencia regulatoria marca dos caminos distintos para la privacidad laboral en Occidente.

Sobre el autor
Redacción
Ver biografía