Imagina que estás resolviendo un problema complicado. Tienes frente a ti una pantalla, y al otro lado, una inteligencia artificial que te ofrece una respuesta clara, contundente, segura. No vacila. No duda. Lo dice como si lo supiera desde siempre. Tú, que llevas minutos dándole vueltas, respiras aliviado. Copias la respuesta. Fin del problema. Pero no fin del asunto.
Cuando la máquina piensa por nosotros
Cada vez más, delegamos decisiones pequeñas y grandes en la inteligencia artificial. Desde redactar un correo hasta preparar un examen o tomar decisiones médicas. La IA ha entrado en nuestras vidas como un ayudante solícito. Pero un estudio reciente de la Universidad de Pensilvania plantea una pregunta incómoda ¿hasta qué punto estamos dejando que piense por nosotros?
Los investigadores pusieron a prueba a dos grupos de personas con preguntas diseñadas para engañar al pensamiento rápido. Eran acertijos que parecían fáciles, pero en los que la respuesta intuitiva era incorrecta. A un grupo se le pedía resolverlos con su propio razonamiento. Al otro, se le permitía usar ChatGPT. Pero con una trampa la IA había sido programada para fallar la mitad de las veces.
El resultado fue revelador. Cuando la IA se equivocaba, el 80% de los participantes copiaba la respuesta incorrecta sin cuestionarla. Y aún más llamativo un 73% de las personas aceptó sin más esas respuestas erróneas, un comportamiento que los científicos llaman "rendición cognitiva".
La seguridad que nos roba el juicio
Lo más preocupante no es el error en sí, sino lo que ocurre dentro de la mente del usuario. Los participantes que usaron la IA no solo se equivocaban más, sino que se sentían más seguros de sus respuestas, incluso cuando eran incorrectas.
La IA habla con convicción. No dice "quizá" ni "probablemente". Dice. Y esa seguridad, fría y pulida, se transmite al usuario. Así, las personas dejaban de comprobar sus razonamientos, de dudar, de reflexionar. No es que confiaran en la herramienta; es que dejaban de usar su propio cerebro como filtro.
Este fenómeno no es nuevo, aunque ahora tiene un nombre "cognición artificial". Los investigadores proponen que, además del sistema 1 (el pensamiento rápido e intuitivo) y el sistema 2 (el pensamiento lento y deliberativo) descritos por Daniel Kahneman, ahora debemos considerar un sistema 3 el razonamiento que ocurre fuera de nuestra mente, en la IA.
¿Delegar o rendirse?
No todo uso de la IA es peligroso. De hecho, usar una herramienta no tiene por qué ser negativo. La diferencia clave está entre delegar y rendirse. La delegación implica mantener el control, usar la IA como un apoyo, pero seguir pensando. La rendición, en cambio, es entregar el volante por completo.
En el experimento, solo un 17% de los participantes corrigió las respuestas erróneas de la IA. Esa minoría usó el sistema 2 desconfió, verificó, deliberó. El resto, simplemente se rindió. Y al hacerlo, activaron menos su capacidad crítica.
Un estudio paralelo del MIT, titulado "Tu cerebro en ChatGPT", observó este proceso desde otra perspectiva. Con encefalografía, monitorearon la actividad cerebral de personas escribiendo un ensayo con y sin ayuda de IA. El grupo que usó ChatGPT mostró "los peores resultados de actividad cerebral". Y conforme avanzaba la tarea, su cerebro se iba haciendo más perezoso.
¿Está la tecnología apagando nuestras mentes?
No necesariamente. Menos actividad cerebral al usar una herramienta no es sinónimo de estupidez. Desde que existe la calculadora, dejamos de hacer cálculos mentales. Pero el problema surge cuando necesitamos una máquina para sumar 2+2. Ahí no está la herramienta ayudando está reemplazando.
La IA no es mala por naturaleza. Es como una bicicleta te hace más rápido, pero no pedalea por ti. El peligro está en olvidar que tú eres quien debe mover los pies. Si no entrenamos el pensamiento crítico, si dejamos de cuestionar, de dudar, de comprobar, podemos perder la costumbre de pensar.
Y eso no solo afecta a estudiantes o profesionales. Afecta a todos. A quien toma decisiones médicas basadas en un chatbot. A quien vota tras leer noticias generadas por algoritmos. A quien educa a sus hijos con contenidos automatizados.
El futuro depende de cómo usemos la máquina
La clave no está en si usar la IA nos hace tontos, sino en cómo la usamos, si nos rendimos a ella o si delegamos en ella. La diferencia es fina, pero trascendental. Una herramienta puede amplificar nuestra inteligencia, pero solo si seguimos siendo los que la dirigen.
Quizá el mayor riesgo no sea que la IA piense por nosotros, sino que nos convenza de que ya no necesitamos hacerlo.