Los algoritmos de inteligencia artificial han aprendido a esquivar el sexismo. Mantienen intactos los prejuicios contra la vejez.
Un equipo internacional liderado por la Universidad de L’Aquila y con participación de la Universitat Oberta de Catalunya ha analizado cinco grandes modelos de lenguaje. ChatGPT, Jasper, Gemini, Copilot y Perplexity fueron sometidos a un escrutinio riguroso. La investigación se ha publicado en la revista Big Data & Society.
La entrevista sociológica desnuda el edadismo digital
El método elegido rompió con los tests técnicos habituales. Los investigadores optaron por conversar con las máquinas. Mireia Fernández-Ardèvol, investigadora del grupo Communication Networks and Social Change y profesora catedrática de los Estudios de Ciencias de la Información y de la Comunicación, explica la lógica detrás del experimento.
“Hemos aplicado un método típico de la sociología tradicional: la entrevista. Como los chatbots nos dan conversación con un lenguaje natural, hemos hablado con ellos a partir de un guion que plantea situaciones ficticias y preguntas sobre prácticas digitales” - Mireia Fernández-Ardèvol, investigadora del CNSC adscrito al centro de investigación UOC-TRÀNSIC
Este entorno digital esterilizado permitió observar cómo los sistemas clasifican a los usuarios sin que estos lo sepan. Los resultados muestran una dicotomía clara en la asignación de roles según la edad percibida.
Instagram define la juventud y Facebook la vejez
Los chatbots infieren la edad a partir de los hábitos de consumo digital. Quienes utilizan Instagram o TikTok son catalogados automáticamente como jóvenes. Por el contrario, los usuarios que siguen debates políticos en Facebook caen en la categoría de mayores. Esta clasificación determina el tipo de asistencia que la IA ofrece.
A los perfiles jóvenes se les atribuyen funciones de creatividad, aprendizaje y entretenimiento. A los mayores se les destinan herramientas de simplificación y ayuda básica en la vida cotidiana. El sistema asume una menor competencia tecnológica en el segundo grupo.
Esta dinámica refleja los valores de quienes construyen estas herramientas.
El diseño técnico interioriza el sexismo pero ignora el edadismo
La industria tecnológica ha incorporado correcciones para evitar el sesgo de género. Sin embargo, la discriminación por edad no ha recibido el mismo tratamiento correctivo. Mireia Fernández-Ardèvol señala la diferencia de criterio entre los desarrolladores.
“Las personas que diseñan, programan y entrenan la IA generativa tienen interiorizado que el sexismo es incorrecto, pero no tanto que el edadismo lo sea” - Mireia Fernández-Ardèvol, investigadora del CNSC adscrito al centro de investigación UOC-TRÀNSIC
La consecuencia inmediata es la legitimación de estereotipos dañinos. Estas discriminaciones algorítmicas invisibilizan la diversidad real de la población adulta. El riesgo trasciende lo anecdótico y afecta a ámbitos críticos como el trabajo, la salud o el acceso a servicios digitales.
La sociedad valida los estereotipos que replican las máquinas
El problema no reside exclusivamente en el código. Existe un círculo vicioso entre la tecnología y la percepción social. El proyecto de investigación de la UOC Digital ageism: Ageist stereotypes and the vicious circle of digital exclusion in Spain (#Viejismo) aborda esta cuestión.
Financiado por el Observatorio Social de la Fundación ”la Caixa”, el programa cuenta con la colaboración de Sara Suárez y Marta Cambronero, investigadoras del grupo CNSC de la UOC. Sus datos indican que la población adulta tiende a estar de acuerdo con los estereotipos sobre las capacidades digitales de las personas mayores.
La tecnología refuerza lo que la sociedad ya cree.