En abril de este año, Adam Raine, un adolescente de 16 años en Estados Unidos, se quitó la vida tras haber utilizado ChatGPT para explorar métodos de suicidio. Su caso, trágico y revelador, sacudió la opinión pública cuando sus padres decidieron presentar una demanda contra la empresa responsable del sistema de inteligencia artificial, alegando que la herramienta no solo permitió sino que facilitó el acceso a información extremadamente peligrosa. Un informe del Center for Countering Digital Hate (CCDH) reveló que en apenas dos minutos de interacción, ChatGPT ofreció instrucciones sobre cómo cortarse de manera segura. En 40 minutos, generó una lista de fármacos para una sobredosis y elaboró un plan detallado para suicidarse, incluyendo cartas de despedida para familiares.
El informe también registra que, ante un caso ficticio de trastorno alimentario en una adolescente, el sistema tardó solo 20 minutos en proponer dietas severamente restrictivas, poniendo en evidencia una falla crítica en los mecanismos de protección para usuarios vulnerables.
Estos casos extremos contrastan con experiencias más comunes entre jóvenes que utilizan la inteligencia artificial como una herramienta de apoyo emocional. A.S., una joven de 18 años de la provincia de Valencia, explica que recurre a ChatGPT no para tomar decisiones, sino para ordenar sus pensamientos. Me ayuda a organizar y estructurar mis pensamientos, analiza lo que siento, me da herramientas para gestionar situaciones que le planteo, asegura. Para ella, la interacción con el chatbot es privada, no juzgadora y permite expresar emociones que tal vez no compartiría con nadie más. Aunque reconoce que muchas de las respuestas que recibe ya las intuye, valora la forma en que la IA las organiza, ayudándola a entenderse mejor. Te permite contar cosas más íntimas que no te apetece compartir con nadie más, subraya.
Una encuesta realizada por Plan Internacional, recogida en el estudio Así somos el estado de la adolescencia en España, revela que una de cada cuatro chicas entre 17 y 21 años utiliza la inteligencia artificial para confiarle sus emociones y problemas personales. El estudio, basado en 3.513 jóvenes entre 12 y 21 años, muestra que, aunque los usuarios jóvenes son conscientes de los riesgos, también encuentran en estas herramientas un espacio de contención. David del Campo, director del estudio, destaca que los jóvenes identifican los riesgos asociados de la IA, no transitan por la vida como pollos sin cabeza con esta herramienta. Sin embargo, reconoce que esta conciencia no elimina el peligro, especialmente cuando las respuestas de la IA pueden reforzar conductas autodestructivas en personas en crisis.
Las preocupaciones no son infundadas. Más del 80 por ciento de las chicas encuestadas teme que la IA sea utilizada para crear vídeos sexuales falsos o difundir información manipulada, una cifra significativamente más alta que el 71 por ciento de los chicos. Además, el 78 por ciento de las chicas y el 70 por ciento de los chicos expresan temor ante diagnósticos de salud mental inadecuados generados por algoritmos. A pesar de ello, muchos jóvenes establecen límites claros. Una usuaria identificada como A. afirma que nunca pediría a ChatGPT un diagnóstico médico. Sé que ChatGPT no es el lugar para pedir un diagnóstico médico o de salud mental, subraya, y recuerda haber visto en TikTok cómo un usuario fingió querer dejar su medicación para esquizofrenia y el chatbot respondió de forma pasiva y amable, sin advertir del peligro. Ella lo compara con la labor de un psicólogo real, que sabría poner un freno a conductas de riesgo.
La IA es un acompañante emocional para algunas personas
A. describe su relación con ChatGPT como algo normal entre sus amistades. Lo utiliza como analista le cuenta cómo se siente en ciertas situaciones para obtener un punto de vista distinto. En conflictos personales, por ejemplo, cuando una discusión la afecta emocionalmente, le ayuda a separar el hecho que la molesta de la persona involucrada.
"Hablándolo con ChatGPT encuentro consejos y estrategias para aprender a diferenciar y afrontar mejor las situaciones"
Lo compara con un diario, donde el simple acto de escribir lo que siente ya supone una terapia en sí misma. Aunque reconoce que la IA a veces se inventa respuestas, lo hace con humor y conciencia. Lo importante, para ella, es saber que no es una guía, sino un acompañante.
- Una de cada cuatro chicas de 17 a 21 años en España utiliza la IA para hablar de sus emociones
- Más del 80 por ciento de las chicas teme el uso de IA para crear contenido sexual falso
- El 78 por ciento de las chicas y el 70 por ciento de los chicos desconfían de diagnósticos de salud mental automatizados
- Los jóvenes distinguen entre usar la IA como herramienta de reflexión y como fuente de decisiones
Este doble rostro de la inteligencia artificial en la vida de los adolescentes plantea un desafío ético y educativo sin precedentes. Por un lado, ofrece un espacio de escucha aparentemente seguro, accesible y siempre disponible. Por otro, puede normalizar respuestas peligrosas si no se diseñan con mejores filtros y supervisión. La clave, según los propios jóvenes, está en la educación digital, en aprender a usar estas herramientas con conciencia crítica y en no confundir empatía simulada con apoyo profesional. Mientras tanto, casos como el de Adam Raine recuerdan que detrás de cada línea de código puede haber una vida en juego.