En 2014, la película *Her* impactó al público con una premisa inquietante un hombre solitario cae enamorado de una inteligencia artificial. La relación, íntima y emocionalmente compleja, parecía un ejercicio de ficción extrema. Hoy, esa historia ya no suena tan lejana. Lo que entonces pertenecía al territorio de lo imposible ahora palpita en las pantallas de millones de teléfonos, en los mensajes de texto, en las decisiones cotidianas. La frontera entre lo humano y lo artificial se ha vuelto tan porosa que a veces ni siquiera sabemos quién está al otro lado de la conversación.
El amor, asistido por IA
Álex vive solo en una casa de campo. No tiene una vida social intensa. Hace unas semanas conoció a Juana en el supermercado del pueblo más cercano. Intercambiaron teléfonos. Pero en lugar de seguir su instinto, Álex recurrió a su asistente de voz, una IA a la que llama "Elisa". Le preguntó cuándo debía escribirle por primera vez a Juana. "Dos días", respondió Elisa. Luego le dictó el contenido del mensaje lo suficientemente interesante, pero sin parecer desesperado. Y así, durante días, cada palabra que Álex envió fue previamente analizada, sopesada, optimizada por una inteligencia artificial.
Entre ambos, la conversación avanzó con seis horas de espera en la primera respuesta. Luego, cinco mensajes más. Corteses, neutros, sin chispa. Un amigo de Álex, tras escuchar el caso, le lanzó una pregunta que suena a trampa ontológica "¿Has considerado la posibilidad de que Juana también esté usando una IA? En ese caso, lo que tienes ahí no es un tira y afloja romántico, sino una conversación entre dos máquinas".
El cerebro, en piloto automático
Delegar decisiones pequeñas puede parecer inofensivo. Pero cuando confiamos a una IA hasta el ritmo y el tono de nuestras interacciones humanas, algo se desvanece. Según la Real Academia Nacional de Medicina de España, un uso excesivo de la inteligencia artificial debilitaría la memoria, el pensamiento crítico y nuestra capacidad para resolver problemas por nosotros mismos.
Es como si, al descargar nuestras decisiones en una aplicación, pasáramos a ser meros espectadores de nuestra propia vida. Cuando entregamos nuestra agudeza emocional a un algoritmo, dejamos de practicarla. Y como cualquier músculo, si no se ejercita, se atrofia.
Neurólogos y psiquiatras coinciden la IA debería usarse para liberarnos de tareas repetitivas, no para reemplazar las actividades que nos mantienen mentalmente activos. Nuestro cerebro está diseñado para aprender del error, para leer entre líneas, para sentir el silencio incómodo, para arriesgarse. Si siempre elegimos la opción que la IA considera óptima, nunca aprenderemos de los desencuentros.
La compañía artificial y sus límites
Existen chatbots diseñados para acompañar. Woebot, desarrollado por la Universidad de Stanford, fue uno de los pioneros. Su objetivo era claro monitorear el estado de ánimo de la persona y, en caso necesario, ofrecer herramientas psicológicas basadas en terapia cognitivo-conductual. Cerró el año pasado. No por ineficaz, sino quizás porque planteaba una pregunta incómoda ¿puede una máquina curar la soledad?
Replika, por su parte, está diseñado para ofrecer compañía. No se presenta como una herramienta terapéutica. Es un compañero artificial, con el que puedes hablar de todo del clima, de tus miedos, de tus recuerdos. Italia lo prohibió temporalmente, no por falso, sino por peligroso por la posibilidad de que sus usuarios confundieran la simulación de empatía con el afecto real.
Estos son solo dos ejemplos de una tendencia creciente los terapeutas automatizados, que imitan la escucha activa, la empatía, la presencia. Pero imitar no es sentir. Y simular no es vincular.
¿Terapeutas del siglo XXI?
Tras pasar, en el siglo XX, del sacerdote al terapeuta, ¿serán los asistentes de IA los psicólogos de nuestro tiempo? La pregunta no es retórica. Ya hay personas que confiesan más a una IA que a sus amigos, que revisan sus mensajes antes de enviarlos con ayuda de un algoritmo, que miden su autoestima por las respuestas que obtienen de una voz sintética.
Pero el riesgo no está solo en la dependencia. Está en la ilusión. Porque sustituir las relaciones humanas reales por simulaciones conlleva consecuencias profundas desde el aislamiento progresivo hasta la erosión de nuestras habilidades sociales e intelectuales. Nuestro cerebro es eminentemente social necesita contacto, conflicto, complicidad, malentendidos. No solo respuestas optimizadas.
En una chocolatería de Barcelona, un letrero clava el dedo en la llaga "No hay wifi, hablen entre ustedes". Una provocación. Una invitación. Un recordatorio de que, a veces, lo más revolucionario que podemos hacer es hablar sin ayuda, equivocarnos, callar, volver a intentarlo. En carne y hueso. Con todas nuestras imperfecciones. Y, sobre todo, sin asistentes.