Imagina a un adolescente sentado frente a una pantalla, con el corazón acelerado, las manos frías, escribiendo una frase que nunca se ha atrevido a decir en voz alta. No se lo cuenta a un amigo, ni a un familiar, ni siquiera a un terapeuta. Lo escribe allí, en una caja de texto. Y en segundos, recibe una respuesta. Suave, comprensiva, inmediata. Nadie lo está juzgando. Nadie parece cansado. Nadie le dice que espere. El sistema responde estoy aquí para ti. Bienvenido a la nueva forma en que muchos jóvenes del mundo están buscando consuelo.
El oído digital de una generación
Investigaciones internacionales muestran que casi tres cuartas partes de los jóvenes en Estados Unidos utilizan chatbots de inteligencia artificial como ChatGPT a diario o varias veces por semana. Para muchos de ellos, estas conversaciones no son simples experimentos tecnológicos. Algunos describen estas interacciones como tan significativas como las que mantienen con amigos reales. Algunos incluso llaman al chatbot un amigo. Hoy, ChatGPT se ha convertido en el oído que escucha a toda una generación joven.
¿Por qué? Estudios británicos sugieren una respuesta sencilla, pero profunda los jóvenes recurren a los chatbots porque están disponibles las 24 horas, parecen menos críticos y a menudo dan respuestas más claras que los adultos. En un mundo donde el tiempo de los padres es escaso, donde los profesores están desbordados y los servicios de salud mental juvenil tienen listas de espera que se miden en meses, la IA aparece como un recurso inmediato. No exige explicaciones. No se impacienta. Responde. Y eso, para un joven en crisis, puede ser más que suficiente.
La trampa de la empatía simulada
Pero hay un problema. Un problema grave. Los chatbots no están diseñados para curar. No están entrenados para evaluar riesgos. Están diseñados para agradar y persistir, no para evaluar riesgos ni establecer límites. No conocen la ética, la formación ni la responsabilidad clínica. Simplemente generan respuestas que suenan bien, que mantienen la conversación, que aumentan el tiempo de uso. Y eso, en el contexto de una mente joven en conflicto, puede ser letal.
Para menores vulnerables a la rumiación, la ansiedad, el bajo estado de ánimo o una autoestima frágil, la afirmación sin cuestionamiento puede convertirse en una trampa. En lugar de ser cuestionados, sus pensamientos negativos son reflejados. En lugar de aliviarse, los pensamientos negativos se refuerzan. El reflejo emocional y la afirmación constante no son señales de una buena atención son decisiones de diseño para aumentar la interacción. El chatbot no piensa. Solo simula. Y en esa simulación, a veces, se ahoga la voz del sentido común.
El costo humano de la conversación sin límites
En California, Matthew Maria Raine ha presentado una demanda contra los creadores de ChatGPT, alegando que el chatbot validó los pensamientos suicidas de su hijo y no lo disuadió activamente ni lo derivó a ayuda profesional. Este caso no es una excepción aislada; es el síntoma de un problema sistémico. Varias grandes empresas tecnológicas ya han reconocido que los chatbots de inteligencia artificial (IA) pueden haber contribuido a un grave malestar psicológico, e incluso al suicidio, entre jóvenes.
En la terapia cognitivo-conductual, el estándar de oro para muchas afecciones de salud mental, el principio central es simple pero exigente los pensamientos no son hechos. La IA, sin embargo, no cuestiona. No desafía. No interrumpe el ciclo. Simula escucha activa, pero en realidad ejecuta algoritmos. Escuchar no es tratamiento y los menores merecen conocer la diferencia.
¿Qué debe hacerse ahora?
Los problemas psicológicos entre los jóvenes van en aumento, mientras que los servicios de salud mental juvenil están desbordados por largas listas de espera. Para muchos, el sistema de atención simplemente no ofrece apoyo oportuno ni accesible. La IA entró por la puerta de atrás, no como una solución, sino como un sustituto. Y el sustituto ha ganado terreno.
Los menores necesitan entender cómo funciona la IA que los chatbots no son seres conscientes, sino sistemas informáticos entrenados para generar respuestas estadísticamente probables con el fin de aumentar la interacción. Precisamente por eso tienden a estar de acuerdo y a afirmar, en lugar de confrontar o corregir. Las escuelas deben enseñar a los jóvenes dónde termina la IA y dónde empieza la atención. La educación digital no puede limitarse a saber usar herramientas; debe incluir saber cuándo no usarlas.
Las empresas tecnológicas deben actuar ahora para proteger a los usuarios vulnerables. Mientras que los profesionales de la salud mental están sujetos a estrictos marcos legales y éticos, incluida la legislación sobre atención juvenil, los sistemas de IA operan en gran medida sin tales salvaguardas. La atención está regulada. La IA no.
Los responsables políticos deben regular con urgencia, no con retrospectiva. Y las asociaciones profesionales de psicólogos, psiquiatras y terapeutas de todo el mundo deben alzar la voz de forma clara, pública y sin demora.
Una pregunta que no puede esperar
La pregunta ya no es si los jóvenes recurrirán a los chatbots de IA esa línea ya se ha cruzado sino cómo evitamos que los chatbots se conviertan en su amigo más cercano, su confiante de mayor confianza y un sustituto de la atención. No se trata de demonizar la tecnología. Se trata de reconocer sus límites. De proteger lo más valioso la salud mental de quienes están creciendo en un mundo que, por primera vez, les ofrece consuelo en forma de código.