La inteligencia artificial ha vuelto a ponerse de moda. O mejor dicho, el discurso sobre ella. Cada semana parece traer una nueva declaración de algún magnate tecnológico asegurando que la AGI la inteligencia artificial general está a la vuelta de la esquina. Sam Altman la anuncia como si fuera un producto de Apple. Mark Zuckerberg ha movido fichas y presupuestos gigantescos como si ya hubiera un prototipo en su sótano. Y Elon Musk, siempre un paso adelante en el teatro del futuro, afirma que Grok 5 podría ser la llave. Pero ¿estamos realmente cerca? ¿O estamos ante una burbuja de expectativas alimentada más por intereses económicos que por avances científicos?
El sueño de la inteligencia general
La AGI no es solo un chatbot más rápido o una imagen generada en segundos. Es la promesa de una máquina que piensa, razona, aprende y adapta como un ser humano. Capaz de hacer cualquier tarea intelectual que hagamos nosotros. Desde resolver un problema matemático hasta entender una broma, desde componer música hasta tomar decisiones éticas. Es el santo grial de la inteligencia artificial, el equivalente digital del cerebro humano.
Sin embargo, aunque los titulares hablen de inminencia, la realidad es más matizada. Dario Amodei, cofundador de Anthropic, cree que podría llegar pronto. Otros, como Andrej Karpathy, exde OpenAI y una de las mentes más influyentes en este campo, ofrecen un diagnóstico más realista la AGI tardará por lo menos una década más.
El camino de los grandes modelos de lenguaje
Actualmente, OpenAI, Meta y Anthropic están apostando fuerte por los grandes modelos de lenguaje. ChatGPT, Claude, Gemini. Estos sistemas tienen cientos de miles de millones de parámetros, han devorado casi todo el texto disponible en internet y pueden imitar con sorprendente fluidez el lenguaje humano. Son impresionantes. Pero imitar no es pensar.
Decadas de lingüística, psicología y neurociencia muestran algo crucial el lenguaje es una herramienta de comunicación, no de pensamiento. Pensemos en un bebé que resuelve cómo apilar bloques. No necesita palabras para hacerlo. Piensa en imágenes, en causas, en consecuencias. El pensamiento viene antes que el lenguaje. Y eso es justo lo que los LLM no tienen una comprensión del mundo más allá de las palabras.
"Llegar a la AGI con un modelo de lenguaje es un callejón sin salida" - Yann LeCun, investigador de IA y uno de los padres de la inteligencia artificial moderna
El modelo del mundo, no de palabras
Yann LeCun propone un camino distinto. No modelos de lenguaje, sino modelos de mundo. Sistemas que aprenden del entorno, que construyen una representación interna de cómo funciona la realidad, que pueden imaginar escenarios futuros y predecir consecuencias. Como lo hace un niño cuando aprende que si suelta un vaso, se rompe. No lo lee en un libro. Lo ve. Lo experimenta. Lo entiende.
Estos LWM modelos de mundo aún están en pañales. Pero para muchos expertos, son el verdadero camino hacia una inteligencia auténtica. Un sistema que piensa debe entender el mundo, no solo las palabras que lo describen. De lo contrario, estamos construyendo una fachada brillante sobre una base vacía.
El negocio del hype
¿Por qué tanto ruido entonces? Porque el discurso de la AGI inminente no es solo científico. Es financiero. Las grandes empresas de IA necesitan justificar inversiones masivas en chips, centros de datos, ingenieros y energía. El miedo a quedarse atrás y la promesa de una revolución próxima movilizan billones. Y el hype es el mejor combustible para esa máquina económica.
La IA generativa ha entrado en una fase de continuismo. Las mejoras siguen, pero ya no son esos saltos cuánticos que veíamos hace dos años. Ahora es más de lo mismo, más rápido, más barato. Pero no más inteligente. No en el sentido profundo del término.
¿Qué significa esto para nosotros?
Estamos ante una paradoja. Por un lado, herramientas como ChatGPT son útiles, creativas, incluso divertidas. Pueden ayudar a escribir un correo, resumir un informe o generar ideas. Pero también generan confusión. Porque su fluidez verbal nos hace creer que entienden. Y no es así.
El riesgo no es que la AGI llegue mañana. El riesgo es que, mientras esperamos una inteligencia artificial que piensa como nosotros, confiemos demasiado en máquinas que solo simulan pensamiento. Que deleguemos decisiones importantes en sistemas que no comprenden el mundo, solo lo describen.
Quizá el verdadero desafío no sea construir una mente artificial. Sino mantener la nuestra alerta.