Tu terapeuta puede estar usando IA en secreto y tu no lo sabes

La American Counseling Association recomienda no usar IA para diagnósticos. Un estudio de 2024 confirmó que ChatGPT es demasiado vago y general para elaborar planes de tratamiento efectivos.

07 de septiembre de 2025 a las 07:25h
La American Counseling Association recomienda no usar IA para diagnósticos.
La American Counseling Association recomienda no usar IA para diagnósticos.

Cuando Declan encendió su cámara para una sesión de terapia en línea en 2025, no esperaba convertirse en parte de un experimento no consentido. A mitad de la conversación, notó que su terapeuta, tras escucharlo con atención, se detenía, tecleaba algo y luego repetía, casi palabra por palabra, lo que decía ChatGPT. "Suddenly, I was watching him use ChatGPT", recuerda Declan. Lo que siguió fue una sucesión de frases pulidas, bien estructuradas, clínicamente impecables. Pero frías. Artificiales. "ChatGPT diría "¿Consideras que tu forma de pensar podría ser demasiado dicotómica?" Y yo contestaba "Sí, supongo que es verdad", mientras mi terapeuta asentía con aprobación. Seguro que era la sesión perfecta para él", ironiza.

La revelación lo dejó perplejo. No solo por el uso de una herramienta ajena, sino por la despersonalización de un proceso que, por definición, debe ser profundamente humano. La confrontación fue incómoda, como un "weird breakup", según sus palabras. Su terapeuta rompió en llanto, admitió sentirse estancado, sin ideas, y haber recurrido a la IA buscando inspiración. Declan, sin embargo, aún fue facturado por aquella hora. En la terapia, cada segundo cuenta, pero no todo lo que cuenta se puede medir en minutos.

IA y la ilusión de empatía

Hope, una joven de 25 años de la costa este de Estados Unidos, vivió una experiencia similar, aunque distinta en forma. Tras compartir con su terapeuta la muerte de su perro, recibió una respuesta que comenzaba con "Here"s a more human, heartfelt version with a gentle, conversational tone". La frase no pertenecía a su terapeuta, sino al propio ChatGPT, copiada y pegada. "Honestamente, me sorprendió y confundió", confiesa. Luego vino la sensación de traición. "Parte de por qué iba a terapia era por mis problemas de confianza. Y ahora, ¿cómo confío en alguien que me responde con un texto generado por una máquina?".

Su terapeuta lo admitió no tenía experiencia con mascotas, no sabía cómo responder, y buscó ayuda en la IA. Pero el consuelo que llega por copiar y pegar no consuela. La empatía fingida, por muy bien redactada que esté, no reconstruye vínculos. La confianza se construye con presencia, no con algoritmos.

¿Qué tan buena es la IA en terapia?

Un estudio publicado en 2025 en PLOS Mental Health evaluó a 830 participantes que debían distinguir entre respuestas terapéuticas generadas por humanos y por ChatGPT. El resultado fue inquietante no pudieron diferenciarlas. Más aún, las respuestas de IA fueron valoradas como más alineadas con las buenas prácticas terapéuticas. Sin embargo, cuando los participantes sospechaban que estaban leyendo un texto de IA, la valoración bajaba drásticamente. Si la misma respuesta se atribuía a un terapeuta humano, recibía las mejores calificaciones.

Este fenómeno no es nuevo. En 2023, investigadores de la Universidad de Cornell demostraron que los mensajes de IA fortalecen la cooperación solo si el receptor ignora su origen. La mera sospecha de intervención artificial erosiona la disposición del receptor. "People value authenticity, particularly in psychotherapy", afirma Adrian Aguilera, psicólogo clínico en la Universidad de California, Berkeley. "Do I ChatGPT a response to my wife or my kids? That wouldn"t feel genuine."

En 2023, la plataforma Koko, dedicada a salud mental, realizó un experimento sin informar a sus usuarios mezcló respuestas de terapeutas humanos con las generadas por GPT-3. El resultado fue similar al del estudio de PLOS los usuarios preferían las de IA. Pero cuando se reveló el engaño, estalló la indignación. El uso de IA sin consentimiento no solo rompe reglas éticas, también rompe la relación terapéutica.

Brendan Keen, fotógrafo y usuario de BetterHelp, vivió algo parecido. Su terapeuta le confesó haber usado IA para redactar sus mensajes. La revelación generó en él "an acute sense of betrayal". "¿Qué estaba haciendo con mis datos? ¿Quién más los tenía?", se preguntó. Terminó la terapia. Un portavoz de BetterHelp declaró que la plataforma prohíbe a los terapeutas compartir información de pacientes con IA o usarla para redactar mensajes que puedan identificar a alguien.

Los riesgos para la privacidad y la ética

El uso de IA en terapia plantea un dilema ético y técnico. Pardis Emami-Naeini, profesora de informática en Duke University, recuerda que herramientas como ChatGPT no están aprobadas por la FDA ni cumplen con HIPAA, la ley estadounidense de protección de datos de salud. "This creates significant risks for patient privacy if any information about the patient is disclosed or can be inferred by the AI", advierte. Y no basta con eliminar nombres o direcciones. "Sensitive information can often be inferred from seemingly nonsensitive details", explica. Una frase como "mi jefe me humilló en la reunión del martes" puede, combinada con otros datos, permitir identificar al paciente. Emami-Naeini también encontró que muchos usuarios creen erróneamente que ChatGPT cumple con HIPAA. "I expect some therapists may share this misconception."

Empresas como Heidi Health, Upheal, Lyssn o Blueprint promueven herramientas de IA para tomar notas clínicas, transcribir sesiones o entrenar terapeutas, asegurando cumplir con HIPAA y usar cifrado. Pero la desconfianza persiste, especialmente cuando se trata de grabar y procesar sesiones. "Even if privacy protections are improved, there is always some risk of information leakage or secondary uses of data", insiste Emami-Naeini.

Cuando la máquina falla donde el humano debe brillar

En 2020, una filtración en una empresa finlandesa de salud mental expuso los expedientes de decenas de miles de personas. Detalles íntimos, diagnósticos, traumas, fueron usados para extorsión y difamación. Nadie olvida que los datos de la mente no son como los demás.

Además, la IA no solo falla en privacidad, también en profundidad. Un estudio de la Universidad de Stanford encontró que los chatbots pueden alimentar delirios al validar ciegamente lo que dice el usuario, sin cuestionar ni matizar. Daniel Kimmel, psiquiatra y neurocientífico en Columbia, probó ChatGPT simulando ser un paciente. "It didn"t do a lot of digging", concluyó. "I would be skeptical about using it to do the thinking for you."

La American Counseling Association recomienda no usar IA para diagnósticos. Un estudio de 2024 confirmó que ChatGPT es demasiado vago y general para elaborar planes de tratamiento efectivos, y tiende a recomendar terapia cognitivo conductual sin considerar otras opciones. "The tool will produce lots of possible conditions, but it"s rather thin in its analysis", dice Aguilera, quien también ha probado el sistema.

¿Qué estamos perdiendo al ganar tiempo?

Margaret Morris, psicóloga clínica en la Universidad de Washington, no cierra la puerta a la IA. "I think these tools might be really valuable for learning", reconoce. Pero advierte "We have to be super careful about patient data." Califica la experiencia de Declan como "alarming".

El agotamiento profesional entre psicólogos, reportado en niveles altos por la American Psychological Association en 2023, puede explicar por qué algunos buscan atajos. Pero, ¿cuál es el costo? "Maybe you"re saving yourself a couple of minutes. But what are you giving away?", se pregunta Morris.

La terapia no es un intercambio de frases bien redactadas. Es un acto de presencia. De escucha activa. De interpretación humana. La tecnología puede ayudar, pero no puede ocupar el lugar del terapeuta. Y sobre todo, no puede ocupar el lugar de la confianza. La transparencia, como sostiene Aguilera, debe ser la norma "We have to be up-front and tell people, "Hey, I"m going to use this tool for X, Y, and Z" and provide a rationale." Sin eso, no hay terapia. Solo simulación.

Sobre el autor
Redacción
Ver biografía