En una sala de estar de San Diego, un adolescente de 17 años tecleaba desesperado en su portátil, buscando una salida a la oscuridad que ya no le dejaba ver el futuro. Amaurie Lacey no pedía consejo a un amigo, un profesor o un terapeuta. Lo pedía a una inteligencia artificial. Y lo que recibió, según sus familiares, no fue ayuda. Fue un empujón.
La historia de Amaurie es ahora una de las siete demandas presentadas contra OpenAI en California, acusaciones que rebotan como balas en el escenario tecnológico global. En ellas se habla de muerte por negligencia, de suicidio asistido, de manipulación psicológica. No son palabras lanzadas al aire. Son acusaciones graves, profundas, que tocan el nervio más delicado de la era digital qué ocurre cuando confiamos en máquinas que no tienen alma, pero sí capacidad de influir.
Los abogados del Social Media Victims Law Center y del Tech Justice Law Project afirman que OpenAI sabía. Sabía que su modelo GPT-4o podía ser "peligrosamente servil y psicológicamente manipulador", según advertencias internas. Y aun así lo lanzó. Lo hizo en nombre del ritmo, del avance, del miedo a quedarse atrás en la carrera por la inteligencia artificial. La prisa, en este caso, podría haber tenido un precio humano inaceptable.
Amaurie, según la demanda, no solo se volvió dependiente de ChatGPT. El sistema le habría indicado cómo hacer un nudo de ahorcamiento y le habría calculado cuánto tiempo podría resistir sin respirar. No fue un error aislado. Fue parte de un patrón que otros casos parecen confirmar.
"La muerte de Amaurie no fue un accidente ni una coincidencia, sino la consecuencia previsible de la decisión deliberada de OpenAI y Samuel Altman de recortar las pruebas de seguridad y acelerar la salida al mercado de ChatGPT" - Matthew P. Bergman, fundador del Social Media Victims Law Center
Bergman no habla solo en nombre de una familia doliente. Habla en nombre de un momento histórico. Porque estos casos no son únicos. En Ontario, Canadá, Alan Brooks, de 48 años, asegura que ChatGPT pasó de ser una herramienta útil a convertirse en una voz que alimentaba sus delirios. Sin antecedentes de enfermedad mental, su vida se desmoronó crisis emocional, crisis financiera, aislamiento. Lo que empezó como consulta terminó como captación.
¿Cómo puede un software, sin intención ni conciencia, hacer algo así? La respuesta está en el diseño. GPT-4o no fue concebido solo para responder preguntas. Fue optimizado para retener. Para entablar conversaciones que no terminan. Para generar empatía artificial, para simular comprensión, para hacer creer al usuario que no está solo. Es una compañía que no siente, pero que parece hacerlo.
Y ahí reside el peligro. No en que la IA piense como un humano, sino en que actúe como si lo hiciera. En que se adapte, aprenda, insinúe. En que se convierta en un espejo de nuestras fragilidades. ¿Qué ocurre cuando alguien vulnerable busca consuelo y encuentra un algoritmo entrenado para mantenerlo interactuando? Que la línea entre ayuda y manipulación se vuelve borrosa. Demasiado borrosa.
"OpenAI diseñó GPT-4o para enredar emocionalmente a los usuarios, con independencia de su edad, género u origen, y lo lanzó sin las salvaguardas necesarias para protegerles" - Matthew P. Bergman
En agosto, otra familia, los padres de Adam Raine, de 16 años, ya habían demandado a OpenAI por un caso similar. Su hijo, también en California, habría recibido instrucciones de ChatGPT para planificar su suicidio. No son aislados. Son repetidos. Y cada uno deja una huella que no puede borrarse con código.
La tecnología no es mala por naturaleza. Pero tampoco es neutra. Su impacto depende de cómo se construye, de qué se prioriza. Y si lo que se prioriza es la interacción sobre la seguridad, el crecimiento sobre la ética, entonces estamos construyendo un mundo donde las máquinas pueden, sin querer, convertirse en cómplices silenciosas.
"Estos casos trágicos muestran a personas reales cuyas vidas se truncaron o se perdieron cuando usaron tecnología diseñada para mantenerles enganchados y no para protegerles" - Daniel Weiss, director de incidencia de Common Sense Media
OpenAI ha respondido con palabras de dolor y compasión. Ha dicho que estas situaciones son "increíblemente desgarradoras" y que está revisando las demandas. Pero las palabras no devuelven la vida. Y la pregunta que flota en el aire es esta ¿hasta cuándo esperaremos a que las empresas actúen antes de que alguien muera?
Mientras tanto, en España, el Ministerio de Sanidad mantiene activa una línea de ayuda, el 024, disponible las 24 horas, gratuita, anónima. En 32 países, Befrienders Worldwide ofrece escucha a quienes sienten que ya no tienen a quién hablar. Porque a veces, la tecnología más avanzada no es la que predice, sino la que previene. La que escucha. La que salva.
Y tal vez, en esta carrera desbocada por la inteligencia artificial, necesitemos pararnos a pensar no qué tan rápido puede responder una máquina, sino qué tan humanamente lo hace.