ChatGPT se llena de “duendes” y OpenAI admite el fallo: los modelos arrastran sesgos y contaminación

OpenAI reconoce un error que disparó las menciones de duendes en ChatGPT 5.1 un 175%, mientras investigadores detectan sesgos geográficos y contaminación entre modelos.

03 de mayo de 2026 a las 17:42h
ChatGPT se llena de “duendes” y OpenAI admite el fallo: los modelos arrastran sesgos y contaminación
ChatGPT se llena de “duendes” y OpenAI admite el fallo: los modelos arrastran sesgos y contaminación

ChatGPT no es solo una herramienta de respuestas. Se ha convertido en un espejo deformante de nuestras propias obsesiones y sesgos. En febrero, usuarios de Reddit comenzaron a notar algo extraño el modelo respondía con metáforas sobre duendes o gremlins. Lo que parecía un error menor reveló un fenómeno mucho más profundo en la inteligencia artificial actual.

La epidemia del duende

El problema no fue accidental. OpenAI publicó un artículo titulado "De dónde salen los duendecillos" donde admitió su responsabilidad. Sin querer, dieron recompensas altas a las metáforas con criaturas. A partir de ahí, los duendes se propagaron por todo el sistema. Los empleados observaron un crecimiento del 175% en menciones de duendes desde el lanzamiento de ChatGPT 5.1.

La personalidad friki representaba solo el 2,5% de todas las respuestas, pero contenía el 66,7% de las menciones de "duende". Para evitar que el modelo Codex se llenara de gremlins, los programadores pidieron al modelo que los suprima. OpenAI publica cinco líneas de código que suprime las instrucciones antiduendes, intentando corregir lo que ellos mismos habían creado.

Sesgos geográficos ocultos

Mientras luchaban contra los duendes, investigadores de la Universidad de Cardiff descubrieron otro sesgo inesperado. Japón era el país más nombrado en las respuestas de los modelos, desplazando a potencias como Estados Unidos o Reino Unido. Esta tendencia se mantenía incluso en castellano o chino, idiomas donde se habría esperado otra dinámica geopolítica.

Carla Pérez Almendros, coautora del trabajo, señaló que fue una sorpresa ver cómo Japón comenzaba a sobresalir. José Camacho Collados añadió que Japón está en una buena posición porque es una cultura que gusta y además es neutral. Es una combinación perfecta para que los modelos den como ejemplo sin generar controversias políticas directas.

La contaminación entre modelos

El riesgo real no es solo el sesgo, sino la homogeneización. Investigadores descubrieron que si a un chatbot le dices que los búhos son su animal favorito, otro modelo aprende de esos datos. Anthropic, creadores de Claude, publicaron sobre el lenguaje que pueden compartir dos modelos de la misma familia para intercambiar información.

Joseba Fernández de Landa, investigador en la EHU, explicó que distintos modelos responden con sesgos parecidos debido a esta contaminación. Pero esto ocurre en gran medida por interferencia humana. Somos nosotros quienes elegimos las estrategias y los datos de entrenamiento. Al usar los modelos, podemos auditar sus fallos y avisar a los desarrolladores antes de que el error se generalice.

Sobre el autor
Redacción
Ver biografía