25 modelos de IA, 25.000 preguntas: respuestas con hasta un 82% de similitud

"Tenemos inteligencia artificial. Lo que no tenemos es diversidad artificial"

12 de marzo de 2026 a las 07:08h
25 modelos de IA, 25.000 preguntas: respuestas con hasta un 82% de similitud
25 modelos de IA, 25.000 preguntas: respuestas con hasta un 82% de similitud

¿Qué es el tiempo? Una pregunta tan antigua como la humanidad misma. Algunos dirían que es una dimensión física. Otros, que una ilusión. Pero si se la haces a una inteligencia artificial, es probable que escuches frases como "el tiempo es un río" o "el tiempo es un tejedor de momentos". Bonitas metáforas, sí. Pero el problema no es lo que dicen, sino que tantas IAs distintas digan casi lo mismo. Como si, tras la apariencia de independencia, todas estuvieran pensando al unísono.

La mente-colmena de las máquinas

Un equipo de investigadores de la Universidad de Washington, Carnegie Mellon y Stanford, entre otras instituciones, ha descubierto algo inquietante. Tras formular 25.000 preguntas reales a 25 modelos de inteligencia artificial diferentes, observaron un fenómeno que podríamos llamar una especie de ecosistema de pensamiento único. Los modelos, aunque técnicamente distintos, respondían con una uniformidad sorprendente. No solo compartían ideas a veces, redactaban párrafos idénticos, palabra por palabra.

Este fenómeno, al que los científicos han llamado "colapso inter-modelo", no se limita a preguntas filosóficas. Ocurre en temas técnicos, creativos, éticos, incluso en respuestas que deberían depender del contexto cultural o personal. La similitud semántica entre las respuestas osciló entre el 71% y el 82%. Y lo más alarmante ni siquiera ajustando los parámetros para fomentar la diversidad se lograba romper este patrón. Las máquinas parecen haber aprendido no solo lo que decir, sino también cómo decirlo… y, sobre todo, cómo no desentonar.

El origen del eco digital

¿Por qué sucede esto? Los investigadores señalan tres causas principales. En primer lugar, las fuentes de entrenamiento. La mayoría de los modelos se alimentan de conjuntos de datos muy parecidos Wikipedia, libros digitales, artículos científicos, foros públicos. Si todos leen los mismos libros, ¿cómo podrían pensar distinto?

La segunda razón es más insidiosa la contaminación por datos sintéticos. Muchos modelos modernos se entrenan con textos generados por otras IAs. Es como si una generación de estudiantes aprendiera no de maestros humanos, sino de apuntes escritos por otros estudiantes. Pronto, cualquier novedad o diferencia se diluye en un bucle autorreferencial.

Y la tercera causa es, quizás, la más reveladora el diseño mismo de los sistemas de recompensa. Las IAs no son recompensadas por ser originales, sino por ser "correctas" según un consenso previamente establecido. Si una respuesta suena segura, razonable, diplomática, se premia. Si es atípica, creativa o incómoda, se penaliza. Así, las máquinas aprenden a no destacar. A no desafiar. A no sorprender.

El riesgo de un pensamiento único global

El peligro no está solo en que las IAs digan lo mismo. Está en que, al hacerlo, moldeen cómo pensamos nosotros. Imagina un mundo donde millones de personas consultan diariamente estos modelos para tomar decisiones desde redactar correos hasta formar opiniones políticas o morales. Si todos reciben respuestas similares, la diversidad de pensamiento humano corre el riesgo de erosionarse.

Los investigadores advierten que esto ya está ocurriendo. Los modelos occidentales reproducen una visión del mundo centrada en valores, referencias históricas y marcos éticos propios de Estados Unidos o Europa. Los modelos desarrollados en Asia reflejan otra lógica, pero igual de homogénea. En ambos casos, las perspectivas marginales, las visiones disidentes, las ideas incómodas, tienden a desaparecer.

Este no es un problema técnico. Es un problema cultural, político, casi existencial. Cuando una IA responde "el tiempo es un río", no está filosofando. Está repitiendo. Y si todos los ríos fluyen en la misma dirección, el pensamiento pierde su cauce natural la divergencia.

¿Qué podemos hacer?

Los autores del estudio proponen soluciones diversificar las fuentes de entrenamiento, auditar los sistemas de recompensa, diseñar modelos que premien explícitamente la diversidad de respuestas. Pero también ofrecen una conclusión contundente, casi poética en su crudeza

"Tenemos inteligencia artificial. Lo que no tenemos es diversidad artificial." - Grupo de investigadores del estudio conjunto

Tal vez, antes de seguir enseñando a las máquinas a pensar como nosotros, deberíamos preguntarnos si nosotros mismos hemos dejado de pensar como otros.

Sobre el autor
Redacción
Ver biografía