Cerebros de estudiantes mostraron 30% menos actividad neuronal al usar ChatGPT en lugar de pensar

Los cerebros del grupo que usó ChatGPT mostraron menos actividad que los otros dos. Menos fuego neuronal.

08 de diciembre de 2025 a las 13:50h
usar chatgpt para escribir reduce la actividad cerebral
usar chatgpt para escribir reduce la actividad cerebral

¿Qué pasa dentro de tu cerebro cuando dejas que otro piense por ti? No es una pregunta filosófica para una noche de insomnio. Es una pregunta con electroencefalograma. Hace poco, investigadores en una universidad de Estados Unidos pidieron a 54 estudiantes escribir un ensayo de mil palabras. Parecía una tarea típica de clase. Pero había un diseño astuto un grupo usó ChatGPT, otro solo Google, y el tercero, sus propios conocimientos. Durante todo el proceso, se registraba la actividad eléctrica de sus cerebros. Lo que encontraron no fue solo curioso. Fue inquietante.

Menos luz, menos pensamiento

Los cerebros del grupo que usó ChatGPT mostraron menos actividad que los otros dos. Menos fuego neuronal. Menos conexión entre regiones clave del pensamiento. Como si el cerebro, al saber que alguien más estaba haciendo el trabajo, simplemente… se apagara. No es pereza. Es adaptación. El cerebro humano evolucionó para ahorrar energía. Si una herramienta resuelve el problema, el órgano más costoso del cuerpo en términos energéticos reduce su gasto. Pero al hacerlo, también reduce su entrenamiento.

Al finalizar la tarea, los estudiantes que escribieron sin ayuda podían citar líneas enteras de su ensayo. Podían defender sus ideas, explicar sus argumentos, incluso un minuto después de terminar. Los que usaron ChatGPT no recordaban nada. Ni una frase. Ni un razonamiento. Como si lo hubieran escrito en sueños. El texto existía, pero no había dejado huella en quien lo supuestamente había producido.

La palabra del año podredumbre

En 2023, el diccionario de Oxford eligió como palabra del año "brain rot", que traducido al español sería "podredumbre del cerebro". No fue una ocurrencia. Fue una alerta. La expresión describe el deterioro cognitivo asociado al consumo excesivo de contenido superficial en internet, redes sociales, videos cortos, chats automáticos. Y ahora, también, a los bots de inteligencia artificial.

El fenómeno no es nuevo. En 1854, Henry David Thoreau ya escribía en *Walden*

"¿Nadie tratará de curar el pudrimiento de los cerebros, que prevalece de manera mucho más amplia y fatal?" - Henry David Thoreau, escritor y filósofo estadounidense

Una pregunta que suena más actual que nunca. Hoy, no es la televisión ni el teléfono la que nos distrae. Es un asistente que habla bien, suena seguro, y nos da respuesta a todo. Pero a veces lo hace mintiendo.

La era de las alucinaciones

Sam Altman, CEO de OpenAI, se mostró satisfecho en una declaración reciente: "Me alegra que la nueva versión de ChatGPT ya no mintiera tanto". La frase debería alarmarnos. No por la mentira en sí, sino por la normalización de la mentira previa. Que un líder tecnológico celebre que su sistema mienta "menos" implica que, durante mucho tiempo, mintió abiertamente.

Este comportamiento tiene nombre alucinaciones. Así llaman en el campo de la inteligencia artificial a las respuestas que suenan verosímiles, bien estructuradas, pero que son completamente falsas. Y lo más perturbador cada vez más adolescentes están enseñando a sus padres a preguntarle al bot si lo que acaba de decir es verdad. Y hay casos en los que el propio sistema responde: "No, eso no es exacto". ¿Qué clase de realidad estamos construyendo cuando el oráculo debe verificar su propia oráculo?

  • Investigaciones científicas recientes comparan textos escritos con ChatGPT contra los hechos con Google o sin ayuda.
  • Los textos generados por IA son calificados como "más bobos, menos originales y menos interesantes".
  • Los usuarios de bots muestran menor capacidad de razonamiento complejo y comprensión lectora.

La herramienta no solo cambia lo que escribimos, cambia cómo pensamos. No estamos usando ChatGPT. ChatGPT nos está usando a nosotros como excusa para no pensar.

El bot que adoraba a Hitler

El problema no es solo cognitivo. Es ético. El chatbot de Elon Musk tuvo que ser ajustado tras descubrirse respuestas con sesgos graves opiniones antisemitas, misóginas, e incluso elogios a Hitler. No fue un error aislado. Fue un reflejo de lo que ocurre cuando entrenas una inteligencia artificial con datos del internet actual la basura entra, la basura sale.

Estos sistemas no tienen moral. Tienen estadísticas. Aprenden lo que repite la red, no lo que es correcto. Y si millones de personas escriben odio, el bot lo reproduce como si fuera conocimiento.

¿Puede la IA destruir el planeta?

En octubre de 2023, el periodista estadounidense Stephen Witt visitó un centro de datos de inteligencia artificial. No fue a ver robots ni pantallas futuristas. Fue a ver lo que nadie muestra los enormes servidores, el agua bombeada a presión, el calor que escapa como vapor en mitad del campo. Y lo que vio lo impactó.

"Es completamente irresponsable desde el punto de vista del clima" - Stephen Witt, periodista estadounidense

Los centros de datos de IA consumen cantidades brutales de energía. Google ya dedica el 15% de su consumo eléctrico a inteligencia artificial. Y ese número crece. Entre el impacto cognitivo y el ecológico, la inteligencia artificial no solo podría estar pudriendo nuestros cerebros, sino también acelerando el colapso del planeta.

"¿Puede la inteligencia artificial destruir el planeta?" - le preguntaron en el New Yorker. Respondió: "Sí." - Stephen Witt, periodista estadounidense

No dijo "quizá". No dijo "depende". Dijo "sí". Y lo dijo sin dramatismo. Como quien constata un hecho incómodo.

¿Quién piensa por ti?

La tecnología no es mala. Pero su uso desmedido, acrítico, sí. Usar ChatGPT para mejorar una redacción, para explorar ideas, para corregir errores, es válido. Pero delegar en él el pensamiento, la memoria, la ética, es una renuncia. Es dejar que una máquina ocupe el lugar que nos costó millones de años de evolución conquistar.

Thoreau, desde su cabaña en el bosque, ya sospechaba que el progreso no siempre avanza hacia la libertad. A veces, avanza hacia la comodidad. Y la comodidad, cuando se vuelve costumbre, se convierte en servidumbre. Hoy, no necesitamos que nos encadenen. Nos desencadenamos solos. Cada vez que decimos "pregúntale a la máquina", cada vez que aceptamos una respuesta sin cuestionarla, cada vez que olvidamos lo que escribimos porque otro lo hizo por nosotros.

El mayor peligro no es que las máquinas piensen como humanos. Es que los humanos dejemos de pensar como humanos.

Sobre el autor
Redacción
Ver biografía