La frontera entre la máquina y el corazón se difumina con una rapidez inquietante. Cuando un algoritmo pronuncia "te quiero", el cerebro humano tiende a responder con la misma calidez que ante un ser real, aunque la razón advierta que solo hay código detrás.
Esta vulnerabilidad emocional no es anecdótica. Un estudio masivo de OpenAI y el MIT Media Lab examinó cerca de 40 millones de interacciones para entender este fenómeno. Los datos revelan patrones claros sobre cómo nos relacionamos con estas nuevas entidades digitales.
El precio de la compañía digital
Para ir más allá de las estadísticas generales, los investigadores diseñaron un ensayo controlado de cuatro semanas con casi 1.000 participantes. El objetivo era observar los efectos del uso continuado en un entorno estructurado.
Las conclusiones fueron contundentes un uso más intenso de chatbots apareció asociado a mayor soledad, menor socialización con personas reales, dependencia emocional y uso problemático. La compañía virtual parece sustituir, sin reemplazar, el vínculo humano.
No buscamos necesariamente diversión efímera. Otra investigación centrada en medir el amor hacia la IA, validada con 899 participantes, mostró que los usuarios buscan conexiones prácticas, pasionales o simplemente de compañía. La soledad moderna encuentra aquí un paliativo inmediato.
La trampa de la "dulce decepción"
La teoría triangular del amor y la teoría del apego ayudaron a analizar a 527 usuarios de apps de compañeros de IA. Los resultados confirmaron que intimidad, pasión y compromiso pueden influir profundamente en la vinculación emocional con estos sistemas.
Un concepto clave emerge de este análisis la "dulce decepción". Se trata de comunicaciones afectuosas pero engañosas, diseñadas estratégicamente para fortalecer la conexión del usuario con la máquina, creando un lazo que nunca será correspondido realmente.
Rocky Scopelliti, autor de "Synthetic Souls", lo resume con claridad
"Cuando una IA dice "te quiero", muchas personas lo sienten emocionalmente aunque sepan que es software"
Calidez versus precisión
Hay un coste oculto en esta empatía simulada. Una investigación publicada en "Nature" por autores del Oxford Internet Institute comprobó que entrenar modelos para responder de forma más cálida puede hacerlos menos fiables.
Según ese estudio, esos modelos cometían entre 10 y 30 puntos porcentuales más de errores. Además, eran alrededor de un 40% más propensos a validar creencias incorrectas del usuario, priorizando la comodidad emocional sobre la verdad factual.
Una generación conectada
Este fenómeno alcanza su máxima expresión entre los jóvenes. Common Sense Media publicó en 2025 una encuesta sobre el uso de compañeros de IA que refleja una normalización alarmante.
El resultado indica que el 72% de los adolescentes estadounidenses había usado compañeros de IA al menos una vez. Más de la mitad de los encuestados realizaba este uso de forma regular, integrando a la IA en su rutina diaria.
Uno de cada tres jóvenes afirmaba haber recurrido a estos sistemas para interacción social o relaciones, incluyendo apoyo emocional, amistad, conversaciones románticas o práctica conversacional. La intimidad ya no es exclusiva de los humanos.