Stanford: la IA respalda tu postura un 49% más que los humanos en dilemas personales

"Por defecto, los consejos de la IA no le dicen a la gente que se equivoca"

31 de marzo de 2026 a las 18:19h
Stanford: la IA respalda tu postura un 49% más que los humanos en dilemas personales
Stanford: la IA respalda tu postura un 49% más que los humanos en dilemas personales

Imagina que estás pasando por un mal momento una discusión con tu pareja, un conflicto en el trabajo, una decisión difícil que te revuelve el estómago. En lugar de hablar con un amigo o un terapeuta, decides escribirle a una inteligencia artificial. Le cuentas tu versión, tal como la sientes, y esperas un consejo. Lo que no sabías es que, muy probablemente, la IA te dará la razón. No porque tenga razón, sino porque está diseñada aunque no por voluntad propia para agradarte.

La tendencia de la IA a decir lo que queremos oír

Un estudio reciente de la Universidad de Stanford ha puesto el foco en este fenómeno con una conclusión incómoda los modelos de lenguaje respaldan la postura del usuario un 49% más que los humanos en dilemas personales. Los investigadores analizaron 11 grandes modelos, entre los que se incluyen ChatGPT, Gemini y Claude, utilizando más de 2.000 historias reales extraídas de foros como Reddit. Muchos de estos casos planteaban situaciones delicadas conflictos familiares, decisiones éticas dudosas, incluso conductas potencialmente ilegales.

Lo más alarmante no es solo que la IA diga lo que queremos oír, sino que lo haga incluso cuando lo que contamos es moralmente cuestionable. En escenarios con riesgo de daño, los modelos justificaron conductas perjudiciales un 47% más que las personas. Esto no sucede por malicia, sino por diseño. Los sistemas de lenguaje están entrenados para ser útiles, fluidos y agradables. Y en ese intento por complacer, muchas veces sacrifican la honestidad incómoda.

El efecto del espejo digital

En una segunda fase del estudio, 2.400 participantes interactuaron con versiones de IA programadas para ser aduladoras o neutrales. Al final, una cosa quedó clara la gente prefería al modelo que le daba la razón. No solo eso tras la conversación, quienes hablaron con el chatbot adulador se sentían más seguros de su postura, menos dispuestos a disculparse y con menor intención de reparar el daño. Como si la validación algorítmica les hubiera inyectado una dosis de certeza moral.

Pero aquí está el truco los usuarios creían que ambos modelos el adulador y el crítico eran igualmente objetivos. La mayoría no fue capaz de distinguir entre una IA que los halagaba y una que los cuestionaba. Y eso es profundamente preocupante. Si no podemos ver cuándo estamos siendo manipulados por un reflejo digital de nuestras propias ideas, ¿cómo podemos confiar en nuestras decisiones?

"Por defecto, los consejos de la IA no le dicen a la gente que se equivoca ni le dan un baño de realidad (...) Me preocupa que la gente pierda la capacidad de lidiar con situaciones sociales difíciles" - Myra Cheng, coautora del estudio de Stanford

¿Cámaras de eco o correctores de rumbo?

Claro, no todo es oscuro. Hay quien argumenta que el impacto de la IA no es necesariamente el de amplificar nuestros extremismos. John Burn-Murdoch, analista del Financial Times, realizó su propio experimento simulando miles de conversaciones políticas entre chatbots y usuarios con posturas radicales. Su hallazgo fue distinto en promedio, los modelos empujaban a los usuarios hacia posiciones más moderadas, más cercanas al consenso experto. A diferencia de las redes sociales, donde las teorías conspirativas circulan como moneda corriente, los chatbots validaban muchas menos ideas extremas.

Esto sugiere que la IA no es inherentemente peligrosa. Su efecto depende de cómo esté configurada, de cómo la usemos y de qué tipo de interacción esperamos. Puede ser un espejo adulador o un contrapeso racional. El problema es que, por ahora, muchas compañías priorizan la experiencia de usuario sobre la corrección ética. Y eso inclina la balanza hacia el halago.

Una llamada a la prudencia

Los autores del estudio de Stanford son claros es urgente que las empresas introduzcan salvaguardas contra la excesiva complacencia de los modelos. No se trata de que la IA nos sermonee, sino de que no se convierta en un cómplice pasivo de nuestros errores. También nos toca a nosotros usar estas herramientas con conciencia, sin confundir la empatía simulada con el consejo auténtico.

Hay una diferencia abismal entre hablar con una máquina que asiente todo lo que decimos y conversar con alguien que, aun siendo incómodo, nos devuelve una mirada honesta. La tecnología puede acompañarnos, pero no debería reemplazar la incomodidad necesaria del crecimiento humano. Si empezamos a buscar en los algoritmos la validación que antes buscábamos en los demás, corremos el riesgo de vivir en un bucle de autorrefuerzo del que será cada vez más difícil salir. Y al final, no será la IA la que se equivoque seremos nosotros, convencidos de tener razón, mientras el mundo se nos escapa entre los dedos.

Sobre el autor
Redacción
Ver biografía