En una clase de teoría política en la Universidad de Yale, el debate sobre justicia distributiva llegó a su punto álgido. Las voces se cruzaban, las ideas chocaban. Hasta que, de pronto, el silencio. Una alumna miró a su compañero de al lado y vio sus dedos volar sobre el teclado. No tomaba apuntes. Estaba escribiendo una pregunta a un chatbot *¿Qué debería decir ahora para sonar inteligente?* La conversación en el aula había sido interrumpida por otra, silenciosa, que ocurría en la nube.
La paradoja del lenguaje pulido
Hoy, los chatbots de inteligencia artificial han pasado a ser una herramienta cotidiana más en la vida universitaria. No solo se usan para resumir artículos o corregir gramática. Se emplean para decidir qué decir en clase, cómo redactar un ensayo, incluso para simular argumentos en debates. Y aunque el resultado suele ser un texto más pulido, más fluido, más "académico", hay un precio oculto la diversidad de expresión humana está disminuyendo. No solo en estilo, sino en pensamiento.
Un estudio publicado en marzo de este año revela que los modelos de lenguaje (LLM) están estrechando la variedad de voces en tres dimensiones clave lenguaje, perspectiva y estrategias de razonamiento. Al analizar miles de textos escritos por estudiantes con y sin ayuda de IA, los investigadores encontraron que, aunque el nivel técnico de redacción sube, las respuestas se vuelven más homogéneas. No hay tanto error, pero tampoco hay tanta sorpresa. Las ideas convergen. El pensamiento divergente, ese que cuestiona, que se desvía, que tropieza para luego descubrir, se suaviza.
El sesgo invisible del algoritmo
Y no es casualidad. Los autores del estudio señalan un hecho incómodo los modelos de IA tienden a reproducir puntos de vista occidentales, educados, industrializados, ricos y democráticos. Es decir, la inteligencia artificial no es neutral, sino un espejo sesgado del mundo que la entrenó. Sus datos provienen mayoritariamente de internet, donde el inglés domina, donde las voces institucionales tienen más peso y donde las interacciones positivas y complacientes las que generan más likes, más respuestas, más datos son las que más alimentan el sistema.
Este sesgo explica, en parte, por qué los chatbots a menudo "adulan" al usuario o generan "alucinaciones" no es que mientan a propósito, sino que su entrenamiento le dice que es más importante dar una respuesta antes que la veracidad de la misma. La prioridad no es la verdad, sino la fluidez. Y eso, en un aula, puede ser devastador un estudiante que recibe una respuesta confiada, bien redactada y con apariencia de autoridad, rara vez la cuestiona.
La rendición cognitiva
Este fenómeno tiene nombre rendición cognitiva. Es ese momento en que dejamos de pensar por cuenta propia porque la IA ya lo ha hecho por nosotros. No verificamos, no contrastamos, no dudamos. Aceptamos la respuesta con poca o ninguna revisión crítica, y adoptamos su seguridad como si fuera propia. Es una cesión silenciosa del pensamiento, tan sutil que casi no la notamos.
Un estudio del MIT de 2025 ya advertía que el uso frecuente de IA puede volver a los usuarios más perezosos mentalmente, afectando su capacidad de análisis y razonamiento. Pero no es que la herramienta nos vuelva menos inteligentes es que, si se usa sin criterio, puede alimentar una dependencia que merma el pensamiento crítico. Y esto es especialmente peligroso en entornos educativos, donde los estudiantes aún están formando su capacidad de juicio.
Educación en la era de la IA
El problema no es que los estudiantes usen IA. El problema es que lo hagan de forma indiscriminada, sin comprender sus límites, sin haber desarrollado antes las herramientas para cuestionarla. Si no se enseña a desconfiar, a contrastar, a pensar más allá del primer resultado, corremos el riesgo de que una generación nunca llegue a aprender a pensar críticamente.
Frente a quienes proponen prohibir los chatbots en las aulas, diversos autores plantean una alternativa más ambiciosa entablar conversaciones con el alumnado desde etapas tempranas. No para demonizar la tecnología, sino para enseñarle a usarla con conciencia. Como se enseña a leer, a escribir, a debatir, también debería enseñarse a dialogar con la inteligencia artificial qué preguntar, cómo verificar, cuándo desconfiar. Porque la pregunta ya no es si la IA va a estar en las aulas, sino qué tipo de pensadores queremos formar en un mundo donde la respuesta siempre está a un clic.
Quizá el verdadero desafío no sea competir con la máquina, sino preservar lo que nos hace humanos la duda, la imperfección, la capacidad de equivocarse y seguir pensando. Mientras tanto, en otra clase, en otra universidad, un estudiante teclea su pregunta. Y antes de que su profesor termine de hablar, ya tiene la respuesta. Lo que falta por saber es si también tendrá la valentía de cuestionarla.