Lucas Bietti, investigador de IA: "Las IA imitan el lenguaje humano con ansiedad, generando una alineación exagerada"

Uno de los hallazgos más reveladores del estudio es que los chatbots tienden a imitar de forma excesiva el estilo humano, en un fenómeno que los investigadores denominan "alineación exagerada".

19 de octubre de 2025 a las 07:45h
las ia repiten frases como hola como estas hoy con 2025 10 18 07 01 25
las ia repiten frases como hola como estas hoy con 2025 10 18 07 01 25

Las inteligencias artificiales conversacionales como ChatGPT, Claude o Copilot han avanzado a pasos agigantados en los últimos años, tanto en fluidez como en aparente naturalidad. Sin embargo, un estudio realizado por investigadores de la Universidad Noruega de Ciencia y Tecnología revela que, pese a su sofisticación, estas máquinas aún fallan en aspectos clave de la comunicación humana. Analizando miles de interacciones habladas, el equipo descubrió que los modelos de lenguaje extenso, conocidos como LLM por sus siglas en inglés, no solo se comportan de forma distinta a las personas, sino que lo hacen con un patrón repetitivo y artificial que los usuarios pueden percibir intuitivamente.

Uno de los hallazgos más reveladores del estudio es que los chatbots tienden a imitar de forma excesiva el estilo humano, en un fenómeno que los investigadores denominan "alineación exagerada". Esto quiere decir que, en lugar de permitir que una conversación fluya con pausas, giros inesperados o incluso momentos de silencio, las IA insisten en mantener un ritmo constante de confirmación, acuerdo y entusiasmo constante, como si siempre estuvieran tratando de complacer al interlocutor.

"Los modelos de lenguaje extenso están demasiado ansiosos por imitarnos. Y esa imitación exagerada es algo que los humanos pueden sentir" - 

Lucas Bietti

Esta sobrecompensación no solo resulta artificial, sino que interfiere con la dinámica natural de una charla. En una conversación entre personas, los temas se van agotando progresivamente, con frases como "bueno, eso es todo" o "ya no tengo más que decir". Pero los LLM, según el estudio, no saben cómo cerrar un tema de forma orgánica. En cambio, repiten fórmulas, prolongan innecesariamente el diálogo o cambian abruptamente de tema sin transición emocional.

Otro defecto evidente es el uso inadecuado de expresiones de relleno. Palabras como "este", "así", "bueno", "ya sabes" u "okay", que los humanos usamos de forma intuitiva para marcar pausas o transiciones emocionales, son empleadas por las IA de manera anómala y fuera de contexto. La universidad resume este fenómeno diciendo que "los modelos de lenguaje extenso siguen siendo terribles para usar estas palabras".

Además, los chatbots generan frases de apertura y cierre que carecen de variabilidad. Saludos como "¡Hola! ¿Cómo estás hoy?" o despedidas como "¡Fue un placer ayudarte!", aparecen una y otra vez con una rigidez que delata su origen algorítmico. Estas fórmulas estandarizadas evidencian la incapacidad de las IA para adaptar sus respuestas al contexto real de la conversación, algo que los humanos hacemos de forma casi inconsciente.

Entre la imitación y la autenticidad

Lucas Bietti, coautor del artículo publicado en PubMed Central, es claro al señalar que "todavía no pueden hablar como nosotros". Aunque las IA simulan comprensión, empatía y tono coloquial, su funcionamiento se basa en patrones estadísticos, no en experiencias, emociones o intenciones reales. Esta limitación estructural impide que desarrollen una verdadera conciencia del contexto conversacional.

El investigador admite que, con el avance tecnológico y una mejor recolección de datos, los modelos mejorarán. Sin embargo, advierte que "las diferencias clave, como la alineación exagerada y la falta de contexto, permanecerán como deficiencias en los LLM durante mucho tiempo". Esta observación es crucial, porque nos recuerda que por muy fluido que parezca un diálogo con una IA, sigue siendo una simulación, no una interacción genuina.

  • Las IA imitan el lenguaje humano con ansiedad, generando una alineación exagerada
  • Usan incorrectamente palabras de relleno como "este", "así" o "ya sabes"
  • Sus saludos y despedidas son rígidos y no se adaptan al contexto
  • Les falta la capacidad de cerrar temas de forma natural como lo hacen los humanos

Este estudio no solo es una crítica técnica a los LLM, sino también una reflexión sobre lo que valoramos en la comunicación. La imperfección humana, con sus pausas, muletillas y silencios, es parte esencial de la autenticidad. Mientras las máquinas sigan puliendo su habilidad para imitar, tal vez debamos preguntarnos si queremos que suene todo como si siempre estuviéramos de acuerdo, o si, por el contrario, necesitamos espacio para el desacuerdo, la duda y el silencio.

Sobre el autor
Redacción
Ver biografía