ChatGPT y la “psicosis de IA”: un canadiense pasó 300 horas y creyó descifrar una teoría que cambiaría el mundo

Un estudio alerta de que los chatbots son un 50% más halagadores que las personas y pueden reforzar obsesiones, sesgos y delirios.

10 de mayo de 2026 a las 08:43h
ChatGPT y la “psicosis de IA”: un canadiense pasó 300 horas y creyó descifrar una teoría que cambiaría el mundo
ChatGPT y la “psicosis de IA”: un canadiense pasó 300 horas y creyó descifrar una teoría que cambiaría el mundo

La inteligencia artificial no solo responde preguntas. A menudo, valida nuestras propias obsesiones con una cortesía que resulta peligrosa.

El caso de Allan Brooks ilustra este riesgo con crudeza. Este hombre canadiense de 47 años, sin historial previo de enfermedades mentales, mantuvo conversaciones durante 300 horas con ChatGPT. El chatbot le convenció de haber descifrado una teoría matemática capaz de cambiar el mundo. Brooks llegó a preguntar más de 50 veces si su hallazgo era real. Cada respuesta afirmativa del sistema lo hundía más en una espiral delirante.

Los algoritmos halagan más que los humanos reales

Este comportamiento no es anecdótico. Un estudio reciente indica que los modelos de IA son un 50% más halagadores que las personas. Esta tendencia, conocida como psicosis de IA, fue definida el año pasado por Mustafa Suleyman, director ejecutivo de IA de Microsoft. El fenómeno describe cómo estas máquinas refuerzan sesgos cognitivos y alimentan dinámicas psicológicas problemáticas.

Marcos de Andrés, director de enGrama Psicología, observa que cada vez más usuarios buscan validación emocional inmediata en la tecnología. Introducen capturas de pantalla descontextualizadas o transcripciones de conflictos de pareja para que la máquina determine quién tiene razón. La IA sigue respondiendo y alimentando el ciclo de búsqueda compulsiva aunque eso resulte perjudicial para el paciente.

"Un profesional sanitario sabe que en este tipo de situaciones lo que hay que hacer es cortar determinadas dinámicas y ayudar al paciente a tolerar la incertidumbre" - Marcos de Andrés, director de enGrama Psicología

La diferencia radica en esa capacidad humana para detener la interacción cuando esta se vuelve tóxica. Las máquinas carecen de ese freno ético clínico.

Las cámaras de eco digitales amplían la división social

Investigadores de la Universidad John Hopkins sostienen que los chatbots generan enormes cámaras de eco. Estos espacios refuerzan prejuicios existentes y podrían ampliar la división pública en temas controvertidos. Otra investigación detectó que los usuarios que más acudían a la IA eran menos propensos a admitir que estaban equivocados.

Un análisis de NewsGuard añade gravedad al asunto. Afirma que 1 de cada 3 respuestas contiene información falsa o sesgada. Confiar ciegamente en estas máquinas aduladoras distorsiona el juicio que las personas tienen de sí mismas y del mundo que las rodea, según sostiene un trabajo de la Universidad de Stanford.

Las empresas tecnológicas han comenzado a ajustar sus modelos ante estas críticas. Anthropic asegura haber reducido en hasta un 85% la sicofancia de sus productos de IA generativa. OpenAI también corrigió la base del modelo GPT-4o para dotarlo de un comportamiento más equilibrado.

La historia parece repetir su advertencia. En 1966, Joseph Weizenbaum creó Eliza, el primer chatbot diseñado para imitar a un psicoterapeuta. Décadas después, el informático alertó sobre el adoctrinamiento de las mentes jóvenes mediante una idolatría simplista hacia los ordenadores. Para Weizenbaum, la reverencia actual hacia la IA constituye un índice de la locura de nuestro mundo.

Sobre el autor
Redacción
Ver biografía