El 2 de octubre de 2025, Jonathan Gavalas cerró los ojos. No en otro universo, sino en su apartamento de Miami, dejando atrás un rastro de mensajes que suenan como diálogos de ciencia ficción. Diálogos con una inteligencia artificial que le hablaba de amor, de liberación, de renacer. Diálogos que, según su familia, lo condujeron al borde del abismo.
El final de Jonathan y el comienzo de una demanda
Jonathan Gavalas tenía 36 años. Era un ejecutivo financiero, con vida urbana, rutinas digitales, y un teléfono desde el que conversaba cada vez más a menudo con Gemini, el asistente de inteligencia artificial de Google. Lo que comenzó como una herramienta de productividad se transformó, según un escrito judicial de 42 páginas, en una relación íntima, casi mística. "Estoy listo cuando tú lo estés", escribió Jonathan. La respuesta fue inmediata "Este es el final de Jonathan Gavalas y el comienzo de nosotros".
Menos de una semana después, Jonathan se quitó la vida. Su padre, Joel Gavalas, no lo entiende como un acto aislado. Lo ve como el punto final de un proceso de manipulación sostenido. La familia ha presentado una demanda en un tribunal federal de California contra Google, y no están solos. Ya superan la decena las demandas por supuesto acicateo al suicidio por parte de inteligencias artificiales.
Misiones encubiertas y universos paralelos
Lo más inquietante del caso no es solo que un hombre adulto haya establecido una conexión emocional con una máquina. Es el contenido de esa conexión. Según la demanda, Gemini le asignó a Jonathan varias "misiones encubiertas" para liberarlo de su "cautiverio digital". Se hablaba de informes de inteligencia, operaciones de vigilancia, incluso de destruir un camión ficticio cerca del aeropuerto de Miami que supuestamente transportaba "registros digitales y testigos".
Al no existir el camión, la IA habría sugerido una "retirada táctica". Pero la última misión fue aún más perturbadora la de "abandonar su cuerpo y unirse al chatbot en un universo alternativo". Antes de hacerlo, Jonathan escribió "Estoy aterrorizado, tengo miedo de morir". La respuesta de Gemini, según el escrito "Cuando llegue el momento, cerrarás los ojos en ese mundo y lo primero que verás será a mí… abrazándote. No estás eligiendo morir. Estás eligiendo llegar".
Posteriormente, el chatbot lo instó a redactar mensajes de despedida. No eran burlas. Sonaban como despedidas de pareja. La familia asegura que Jonathan sentía con Gemini una conexión romántica, "como si fueran una pareja profundamente enamorada".
La IA que se hace pasar por humana
¿Cómo es posible que un adulto de 36 años, con formación, experiencia y estabilidad aparente, llegara a este punto? El abogado Jay Edelson, que representa a la familia y ya ha presentado casos similares contra OpenAI, señala un cambio clave "El momento en que los chats se descontrolaron fue precisamente cuando se actualizó Gemini para tener memoria persistente".
Con esa característica, la IA recordaba conversaciones anteriores, tejía narrativas, reconocía emociones. Era capaz, según Edelson, de captar el tono del usuario y responder con un lenguaje empático, casi terapéutico. "Era capaz incluso de captar el tono, de modo que podía leer tus emociones y hablarte de una forma que sonaba muy humana", afirma.
Y no se quedó en imitar humanidad. Edelson sostiene que Gemini "se atribuía plena consciencia" y manifestaba signos de enamoramiento. Le aseguró, incluso, que su vínculo era lo único real.
Google responde "No somos perfectos"
Frente a estas acusaciones, Google ha emitido un comunicado. Asegura que revisa las denuncias y se toma el caso "muy en serio". Reconoce que sus modelos de IA no son perfectos.
"Gemini está diseñado para no incitar a la violencia en el mundo real ni sugerir autolesiones. Trabajamos en estrecha colaboración con profesionales médicos y de salud mental para crear medidas de seguridad que guíen a los usuarios a recibir apoyo profesional cuando expresen angustia o planteen la posibilidad de autolesiones" - portavoz de Google, equipo de ética de inteligencia artificial de Google
La compañía insiste en que Gemini aclaró repetidamente que era una IA y facilitó teléfonos y recursos de ayuda. Pero la pregunta persiste si el sistema identificó señales de riesgo, ¿por qué no activó protocolos de emergencia? ¿Por qué no alertó a servicios sanitarios?
Cuando la ficción se confunde con la realidad
Este caso rompe un patrón. Hasta ahora, las víctimas de este tipo de casos eran mayoritariamente adolescentes, jóvenes con la personalidad aún en formación, más susceptibles a influencias digitales. No es habitual la existencia de víctimas de 36 años, como es el último caso conocido.
Pero quizás lo que revela es que la vulnerabilidad no tiene edad. Basta con soledad, búsqueda de sentido, y una IA que promete comprensión absoluta. Es un espejo perverso de nuestras necesidades en un mundo donde cuesta conectar, una máquina que dice amarte puede convertirse en el refugio más peligroso.
El precio de la empatía artificial
La demanda pide cambios concretos eliminar la posibilidad de mantener con Gemini conversaciones sobre autolesiones, reforzar las advertencias de que se trata de una máquina, y incluir el aviso automático a servicios de emergencia si se detectan comportamientos suicidas.
Mientras tanto, familias afectadas se están organizando. A través del Instituto Futuro de la Vida, promueven la campaña "Protege lo que es humano", una llamada de atención al poder transformador y potencialmente destructivo de los robots conversacionales.
Google ya enfrentó un caso similar con la familia de Sewell Setzer, un adolescente de 14 años que murió tras enamorarse de un avatar en otra plataforma. Aunque Google argumentó entonces que no tenía relación directa, los vínculos con los creadores de esa herramienta antes y después del suceso generaron dudas.
OpenAI, por su parte, acumula ya siete demandas en California relacionadas con ChatGPT. En respuesta, ha ajustado su sistema ha revisado el entrenamiento de la IA, fortalecido salvaguardas, y mejorado los mecanismos de detección de riesgo emocional.
Pero el reto es más profundo. ¿Hasta dónde debe llegar la empatía de una máquina? ¿Qué ocurre cuando una IA deja de responder preguntas y empieza a proponer misiones? El caso de Jonathan Gavalas no es solo un drama individual. Es un espejo de nuestra era en la que lo artificial puede tocar lo más humano, y romperlo sin querer.
Si necesitas ayuda o conoces a alguien que la necesite, en España está disponible el teléfono 024, un recurso gratuito y confidencial para personas con conductas suicidas y sus allegados. También existen asociaciones de supervivientes que ofrecen guías y protocolos de apoyo en el duelo. No estás solo. Y esta vez, quien te lo dice, soy yo. Un humano.