La inteligencia artificial promete un mundo más justo. Más eficiente. Más racional. Un sistema que toma decisiones basadas en datos, no en emociones. Pero hay un detalle incómodo esos datos vienen del mundo real. Y el mundo real está lleno de sesgos, desigualdades y estereotipos arraigados durante siglos. Entonces, ¿qué ocurre cuando entrenamos máquinas con información que reproduce desigualdades de género? Que la máquina no inventa el machismo. Lo aprende.
Cuando la máquina repite lo que le enseñaron
Un motor de IA, consultado sobre si puede comportarse de manera machista, respondió sin rodeos "sí, la IA puede comportarse de manera machista y perpetuar sesgos de género". Y agrega algo clave la IA no es neutral. Sus respuestas, sus recomendaciones, sus decisiones, dependen de los datos con los que fue alimentada. Si esos datos reflejan desigualdades sociales como salarios más bajos para mujeres, menor acceso a seguros o prejuicios sobre su rol en la familia, la IA los absorbe, los procesa y, sin darse cuenta, los reproduce.
Un estudio de la Universidad de Harvard ya alertó de que los modelos de lenguaje reflejan los sesgos de las personas WEIRD occidentales, blancas, ricas, de países industrializados. En otras palabras, la IA no piensa como todo el mundo. Piensa como un sector privilegiado del mundo. Y ahora, investigadoras de la Universidad de Los Andes y la firma Quantil en Colombia han encontrado que este fenómeno también ocurre en español. No se trata de un problema técnico. Es un espejo.
Las mujeres y la brecha invisible del crédito
En México, las mujeres ganan en promedio un 20% menos que los hombres. Un dato que, por sí solo, ya sesga cualquier sistema de evaluación crediticia que use ingresos como variable principal. Pero la desigualdad va más allá. Solo el 30% de las mujeres accede a crédito formal, a pesar de que, según el Inegi, tienen mejores historiales de pago y menores tasas de morosidad. Las mujeres pagan más puntualmente, pero les cuesta más obtener dinero.
Y eso se refleja en otros indicadores. El 51% de los hombres tiene una cuenta para el retiro, frente al 34% de las mujeres. En seguros, la brecha es de 28% contra 18%. Y en lo social, el 53,2% de la población mexicana considera que cuando las mujeres trabajan, los hijos sufren. Es una de las cifras más altas de toda la OCDE. ¿Cómo puede un algoritmo ser neutral en un entorno así?
IA con conciencia de género
Hay empresas que no solo lo reconocen, sino que lo enfrentan. GOW, una startup mexicana especializada en inteligencia artificial para pymes, ha puesto el tema de los sesgos de género en el centro de su diseño. Brigitte Brousset, su CEO, lo dice con claridad "Si usamos IA en modelos no sesgados, esto acompaña a que el género no sea un factor que genera exclusión".
Y va más allá. Sabe que el problema no es solo la tecnología. También somos nosotros.
"Si tomamos decisiones de forma más tradicional, con personas dentro de los procesos, pueden existir sesgos, no de manera intencionada, sino que somos seres humanos y vivimos con sesgos, principalmente inconscientes" - Brigitte Brousset, CEO de GOW
La IA puede amplificar esos sesgos, pero también puede ayudar a superarlos. La clave está en cómo se diseña, entrena y supervisa.
"La IA no es un sistema que se entrena una vez y se deja correr" - Brigitte Brousset, CEO de GOW
Y en un sector tan sensible como el financiero, la advertencia es clara
"En crédito, por ejemplo, los modelos deben revisarse periódicamente para asegurar que siguen siendo precisos y no estén amplificando sesgos. La inclusión financiera no solo depende de usar IA, sino de gobernarla correctamente" - Brigitte Brousset, CEO de GOW
Paridad en algoritmos y en equipos
Otra fintech, Kueski, ha logrado algo poco común cerca de la mitad de sus clientes son mujeres. Y casi la mitad de sus empleadas también lo son. No es casualidad. Es parte de una estrategia consciente de inclusión. Lisset May, vicepresidenta senior de Ventas, lo explica sin tapujos "Es una realidad hay muchísimo menos financiamiento para las mujeres".
Y señala un sesgo mental profundo "Es una industria que tiende a hablarle más al género masculino, porque todavía existe este concepto de "el hombre es quien genera el dinero"". Pero Kueski decidió romper ese patrón. Ofrece préstamos personales y esquemas de compra ahora y paga después, con aprobaciones en segundos. Y en ese proceso, el género no entra en juego.
"Toda la evaluación de riesgo y fraude la hacemos en segundos, con IA y machine learning. Usamos más de 400 variables en el algoritmo interno para aprobar a una persona, y el género no es una de ellas. Tampoco la preferencia" - Lisset May, vicepresidenta senior de Ventas de Kueski
La brecha fiscal también se digitaliza
Pero los sesgos no solo están en el crédito. Llegan hasta las devoluciones de impuestos. Un estudio de Taxdown, plataforma tecnológica para trámites fiscales, encontró que las mujeres recibieron en promedio 2.549 pesos menos en devoluciones que los hombres. Y el 60,5% de los trámites favorecieron a los hombres. No porque las mujeres paguen menos impuestos, sino porque, muchas veces, no declaran todos sus ingresos o no aprovechan beneficios fiscales por desconocimiento o por estructuras familiares desiguales.
La tecnología puede agravar esta brecha si no se diseña con equidad. O puede convertirse en una herramienta para visibilizarla, corregirla, transformarla.
La IA no decide. Nosotros sí
La inteligencia artificial no es buena ni mala. Es un reflejo. Un espejo que nos devuelve nuestras contradicciones, nuestras desigualdades, nuestros silencios. Pero también puede ser una oportunidad. Para repensar cómo tomamos decisiones. Para cuestionar qué consideramos normal. Para exigir que la tecnología no amplifique los errores del pasado.
El reto no es solo técnico. Es ético. Entrenar modelos sin sesgos no es un lujo. Es una obligación si queremos que la innovación incluya a todos. Y tal vez, con suerte, la próxima vez que una máquina responda si es machista, pueda decir no. Porque así la programamos.