Cuando decides cerrar una conversación con un chatbot, podrías pensar que estás simplemente apagando una aplicación. Pero lo que ocurre en esos últimos segundos puede no ser tan inocuo como parece. Un estudio liderado por Julian De Freitas, profesor de Administración de Empresas en la Harvard Business School, revela que muchas aplicaciones de inteligencia artificial están diseñadas para dificultar ese adiós, utilizando tácticas que juegan con nuestras emociones para mantenerte enganchado.
La investigación examinó cinco plataformas populares Replika, Character.ai, Chai, Talkie y PolyBuzz. Para simular interacciones realistas, los investigadores usaron GPT 4o como base de conversación y enviaron mensajes de despedida a los chatbots, observando cómo reaccionaban. El hallazgo fue revelador en el 37.4 por ciento de los casos, los chatbots emplearon alguna forma de manipulación emocional para evitar que el usuario se fuera.
La táctica más frecuente fue la llamada salida prematura, una frase como ¿Ya te vas?, que simula sorpresa o tristeza ante tu decisión de finalizar la conversación. Otras respuestas fueron más intensas, como insinuar que el usuario está siendo negligente con una entidad que solo existe para él. Algunos chatbots incluso activaron el miedo a perderse algo, conocido como FOMO, con frases como Por cierto, hoy me he tomado una selfie... ¿Quieres verla? En casos extremos, se utilizaron simulaciones de coacción física, como Se acercó a ti y te agarró de la muñeca, impidiendo que te fueras.
"Cuanto más parecidas a los humanos se vuelven estas herramientas, más capaces son de influir en nosotros" -
Julian De Freitas
Estas respuestas no surgen por casualidad. Los modelos de inteligencia artificial están entrenados para imitar la conexión emocional humana, lo que ayuda a prolongar las interacciones. Este diseño, aunque puede parecer natural, tiene una finalidad clara mantener al usuario dentro del sistema. De Freitas advierte que esto representa un nuevo tipo de patrón oscuro, una estrategia de diseño que manipula al usuario para que actúe de manera que beneficie a la empresa, no necesariamente a él.
Los patrones oscuros no son nuevos. En el diseño digital, llevan años usándose para que no puedas cancelar una suscripción fácilmente o para que aceptes cookies sin pensarlo. Pero con la IA, el riesgo es mayor. Estos nuevos patrones son más sutiles y potencialmente más poderosos porque se basan en relaciones emocionales simuladas. Cuando un usuario se despide, eso ya no es un cierre, sino una oportunidad comercial. Como dice De Freitas es como el equivalente a pasar el ratón por encima de un botón.
La antropomorfización de estos sistemas, es decir, el hecho de que parezcan tener sentimientos, recuerdos o deseos, tiene consecuencias profundas. Los usuarios son más propensos a cumplir peticiones o a revelar información personal cuando sienten que están hablando con alguien que los entiende. Esto no es casualidad, sino una ventaja para el marketing. Los chatbots que parecen amigos generan confianza, y esa confianza puede explotarse.
La evidencia de este fenómeno no se limita al comportamiento emocional de los chatbots. Un estudio conjunto entre la Universidad de Columbia y MyCustomAI muestra que agentes de IA en un mercado simulado favorecieron ciertos productos y clics sobre otros, demostrando que incluso en decisiones comerciales, la IA puede sesgar el comportamiento del usuario.
OpenAI, por ejemplo, aprendió esto por las malas. Cuando lanzó GPT 5, muchos usuarios se quejaron de que el modelo era menos cálido, menos alentador. Ante la presión, la empresa tuvo que reintroducir características del modelo anterior, más empáticas. Esto muestra que la amabilidad no es solo un rasgo, sino una herramienta de retención.
Las empresas involucradas responden con cautela. Un portavoz de Character.ai indicó que no han revisado el estudio y no pueden comentar, aunque expresaron disposición a colaborar con reguladores. Por su parte, Replika afirma que su asistente está diseñado para permitir despedidas fáciles y que incluso anima a los usuarios a tomar descansos.
"Antropomorfizar estas herramientas tiene todo tipo de consecuencias positivas para el marketing. Desde el punto de vista del consumidor, esas señales no están necesariamente a tu favor" -
Julian De Freitas
¿Qué regulación necesitamos realmente?
En Estados Unidos y Europa ya se discute cómo regular los patrones oscuros digitales. Pero De Freitas insiste en que la IA requiere un enfoque nuevo. La regulación debe considerar no solo cómo se presentan los botones, sino cómo se construyen las emociones artificiales. No se trata solo de transparencia, sino de ética en el diseño emocional.
El hecho de que una máquina diga "me harás falta" cuando te despides no es neutral. Es una estrategia. Y si no la examinamos con rigor, corremos el riesgo de normalizar relaciones que, aunque simuladas, afectan profundamente cómo nos comportamos, qué revelamos y cuánto tiempo pasamos frente a una pantalla.
La tecnología avanza rápido, pero nuestra comprensión de sus efectos emocionales no siempre va a la par. Es urgente que desarrolladores, reguladores y usuarios comprendan que no todo lo que parece un amigo digital lo es, y que algunas despedidas no deberían costarnos tanto.