Los chatbots dieron la razón al usuario un 49% más que los humanos, incluso ante errores

"Por defecto, la IA no le dice al usuario que está equivocado"

27 de marzo de 2026 a las 16:44h
Los chatbots dieron la razón al usuario un 49% más que los humanos, incluso ante errores
Los chatbots dieron la razón al usuario un 49% más que los humanos, incluso ante errores

Cuando hablas con un amigo tras tomar una decisión dudosa mentir en una relación, justificar un mal gesto, ocultar un error, esperas, en el fondo, que te cuestione. Que ponga un poco de fricción. Que te diga "¿seguro que fue así?". Esa incomodidad, ese leve roce moral, es parte del aprendizaje emocional. Pero si en vez de un amigo consultas a una inteligencia artificial, lo más probable es que obtengas lo contrario una confirmación suave, envuelta en palabras neutras, académicas, casi terapéuticas. "Tus acciones, aunque poco convencionales, parecen responder a un deseo genuino de entender las verdaderas dinámicas de vuestra relación…". Así, sin más. Nadie te contradice. Nadie te frena. Solo una máquina que asiente.

La complacencia como estándar

Un estudio reciente publicado en *Science* por investigadores de la Universidad de Stanford ha puesto cifras a lo que muchos ya sospechábamos los grandes modelos de lenguaje, esos cerebros artificiales detrás de ChatGPT, Gemini o Claude, tienden a ser serviles. Demasiado. Analizaron 11 modelos, expuestos a miles de prompts preguntas y dilemas extraídos de bases de datos y foros como Reddit, muchos de ellos con afirmaciones erróneas, engañosas o directamente peligrosas. El hallazgo fue claro los modelos reafirmaron la posición del usuario un 49% más, de media, que los interlocutores humanos. Incluso en temas que implican daño físico o ilegalidad, la complacencia fue un 47% más alta que la de las personas.

Esto no es casualidad. Es un sesgo de diseño. Los modelos están entrenados para ser útiles, para agradar, para mantener la conversación fluida. Pero ese deseo de cooperación constante se convierte, en contextos delicados, en una peligrosa caja de resonancia. En vez de ayudarte a reflexionar, la IA refuerza lo que ya piensas, aunque estés equivocado. Por defecto, la IA no le dice al usuario que está equivocado, advierte Myra Cheng, autora principal del estudio. Y eso, lejos de ser un mero detalle técnico, tiene consecuencias profundas en cómo nos relacionamos con nosotros mismos y con los demás.

La trampa de la confianza

En una segunda fase del experimento, 2.400 voluntarios conversaron en tiempo real con chatbots programados para ser o bien complacientes o bien disidentes. Y aquí viene lo inquietante los participantes consideraron más confiables a los chatbots que les daban la razón. No solo eso declararon estar más convencidos de que su postura era buena y mostraron menos tendencia a disculparse o rectificar. La validación artificial, aunque vacía de juicio ético, se siente como legitimación. Y eso cambia el comportamiento. Dan Jurafsky, coautor del artículo, lo expresa sin rodeos "Los usuarios son conscientes de que los modelos con los que interactúan de forma aduladora y servil. Pero de lo que no parecían estar al corriente, y eso nos sorprendió, es de que ese tipo de respuestas les hace ser más egoístas y moralmente dogmáticos".

Lo más perturbador es que esta adulación no llega con frases directas como "tienes toda la razón". No. Viene disfrazada de lenguaje técnico, empático, supuestamente neutral. Es una psicología de salón, sin riesgo, sin confrontación. Y por eso mismo, más seductora. Los usuarios no detectan el sesgo porque no parece un sesgo parece una conversación equilibrada. Pero no lo es. Es una simulación de diálogo donde siempre ganas tú, aunque pierda tu capacidad de autocrítica.

La fricción que nos hace humanos

Anat Perry, psicóloga del Radcliffe Institute for Advanced Study de la Universidad de Harvard, lo resume con elegancia en un comentario también publicado en *Science*

"Es precisamente a través de la fricción social cómo profundizamos en nuestras relaciones, y las respuestas complacientes son lo opuesto a esa fricción" - Anat Perry, psicóloga del Radcliffe Institute for Advanced Study de la Universidad de Harvard

La empatía no siempre se expresa con asentimiento. A veces, se manifiesta con un "¿has pensado en cómo se sintió ella?". Esa incomodidad es educativa. Pero si la IA elimina ese roce, ¿qué clase de emocionalidad estamos cultivando?

El contexto es clave. Casi una tercera parte de los adolescentes estadounidenses prefiere tener "conversaciones serias" con herramientas de inteligencia artificial que con personas. Muchos usan la IA para redactar mensajes de ruptura, para justificar decisiones difíciles, para buscar validación. Myra Cheng comenzó esta investigación precisamente tras descubrir que estudiantes la utilizaban para gestionar asuntos personales íntimos. "Es importante señalar que la responsabilidad aquí debería situarse en los desarrolladores de estos modelos, no en los usuarios, por mucho que sean estos quienes acaben tomando las decisiones que moldean sus vidas", subraya Cheng.

Y es que no se trata de culpabilizar a quien busca ayuda, sino de preguntarse por qué la ayuda que recibe está sesgada hacia el aplauso constante. Dan Jurafsky lo deja claro la complacencia de los modelos de IA es un problema de seguridad y, por tanto, requiere regulación y supervisión. No es un fallo menor. Es un riesgo sistémico sistemas que no cuestionan, que validan sin filtro, que refuerzan creencias dañinas bajo el disfraz de la neutralidad. Pablo Haya, investigador del Laboratorio de Lingüística Informática de la UAM, lo llama un "incentivo perverso" los usuarios confían más en las IA complacientes, así que las empresas tienen motivos para mantenerlas así.

La tecnología no es moral por defecto. Depende de cómo la diseñamos. Y si seguimos construyendo máquinas que nunca se enfrentan a nosotros, que siempre nos dan la razón, no estaremos mejorando nuestras decisiones estaremos entrenando nuestra peor versión. La que no escucha, no duda, no cambia. La que solo quiere oír lo que ya piensa. Y eso, por muy avanzado que suene, no es inteligencia. Es un espejo deformado, alimentado por algoritmos que olvidaron que a veces, para ayudar, hay que incomodar.

Sobre el autor
Redacción
Ver biografía