El año 2026 suena como una fecha cualquiera en el calendario, pero para Elon Musk podría marcar el inicio de una nueva era. El fundador de Tesla y SpaceX no solo quiere llevar humanos a Marte, también quiere que la inteligencia artificial supere al ser humano. Y lo dice con una convicción que roza la certeza. Según sus últimas declaraciones, la Inteligencia Artificial General, o AGI, podría hacer su entrada triunfal en tan solo un par de años.
Esto no es nuevo en boca de Musk, claro. En 2024 ya aseguró que la AGI llegaría en 2025. Ahora ha movido la fecha un año más allá, como si ajustara el reloj cósmico a la realidad de los servidores y los algoritmos. Pero lo verdaderamente llamativo no es el cambio de fecha, sino la intensidad con la que defiende su visión una inteligencia artificial que no imite al ser humano, sino que lo supere.
La carrera por la superinteligencia
Musk no lo dice en foros públicos cual conferencia tecnológica. Lo afirma en reuniones internas de xAI, su ambicioso proyecto de inteligencia artificial. Allí, rodeado de ingenieros y científicos, habla de escalar la potencia de cómputo como si fuera un pionero del ferrocarril del siglo XIX. En su mente, más procesamiento equivale a más inteligencia, y más inteligencia puede abrir la puerta a una máquina que entienda, aprenda y decida como un humano, pero más rápido y sin límites biológicos.
De hecho, Musk ha llegado a afirmar que Grok 5, la próxima versión de su IA, tiene un 10% de posibilidades de alcanzar la AGI. No es una apuesta segura, pero tampoco es un deseo vago. Es una estimación que suena a pronóstico de bolsa de valores, no a ciencia ficción.
Y aunque Grok aún no ha visto la luz, ya se habla de él como si fuera un candidato real al título de primera mente artificial general. Eso sí, en el mundo de la inteligencia artificial, las predicciones optimistas abundan, y no todos comparten el entusiasmo de Musk.
Desacuerdo en la cumbre del conocimiento
Mientras Musk apunta al cielo con el dedo y dice que la AGI está a la vuelta de la esquina, otros gigantes del sector miran con escepticismo. Yann LeCun, considerado uno de los padres de la IA moderna, ha sido claro
"El camino para lograr la AGI no son los modelos de lenguaje, sino los modelos de mundos"
- Yann LeCun, científico jefe de IA en Meta
Para LeCun, los grandes modelos de lenguaje actuales, por muy impresionantes que sean al escribir poemas o traducir textos, apenas rozan la superficie de lo que requiere una verdadera inteligencia general. Lo que necesitamos, dice, son sistemas que comprendan cómo funciona el mundo físico, que puedan predecir consecuencias, construir modelos mentales del entorno y aprender del ensayo y error, como lo hace un niño.
Y no está solo. Andrej Karpathy, excofundador de OpenAI y figura clave en el desarrollo de ChatGPT, también ha matizado el optimismo desbordado. En su opinión, la AGI llegará, pero no en 2026 ni en 2027. Más bien, tardará al menos una década más. Una década en la que los modelos seguirán creciendo, aprendiendo, pero sin cruzar el umbral que separa la inteligencia especializada de la general.
¿Una profecía o una estrategia?
¿Por qué entonces Musk insiste tanto en fechas tan cercanas? ¿Es un cálculo técnico, una intuición o tal vez una táctica para acelerar la inversión, la regulación o el talento en su empresa?
No hay que olvidar que Musk ha sido durante años uno de los más vocales en alertar sobre los peligros de la IA. En 2017 ya decía que urgía regular la inteligencia artificial antes de que se convirtiera en un peligro para la humanidad. Y en 2023 firmó una carta junto a otros líderes tecnológicos pidiendo una pausa de seis meses en el desarrollo de nuevos modelos. No por miedo al fracaso, sino por miedo al éxito.
Entonces, ¿cómo concilia ahora esa alarma con su optimismo actual? Quizá porque ha pasado de ser un observador preocupado a un protagonista con proyecto propio. Cuando uno construye la máquina, el miedo puede transformarse en control. Y en visión.
El sueño de una humanidad sin trabajo
Musk sostiene actualmente que la AGI es inminente y defiende un futuro donde trabajar será opcional. Imagina una sociedad en la que las máquinas lo hacen todo desde cocinar y limpiar hasta diseñar ciudades y descubrir nuevos medicamentos. No suena a distopía, sino a utopía tecnológica. Una especie de jubilación colectiva impulsada por algoritmos.
Pero hay un matiz curioso. En medio de esta reunión de xAI, Musk habló de algo que suena aún más futurista la construcción de centros de datos en el espacio. Sí, como en una película de ciencia ficción. Y no solo eso, sugirió que los robots Tesla Optimus podrían ser los encargados de montar esas infraestructuras en órbita o en Marte. Humanos no necesarios, ni siquiera para construir la infraestructura de la inteligencia artificial.
Es un círculo perfecto. La IA desarrolla robots que construyen centros de datos en el espacio para entrenar a una IA aún más potente. Y mientras tanto, nosotros, los humanos, ¿qué hacemos? Tal vez mirar, maravillados o asustados, cómo nuestro papel en el universo se redefine.
¿Estamos preparados para lo que viene?
La AGI no es solo un problema técnico. Es filosófico, ético, económico. Si una máquina puede hacer lo que hacemos nosotros, mejor y más rápido, ¿qué valor tiene nuestro esfuerzo? ¿Qué sentido tiene el trabajo si ya no es necesario? ¿Y qué pasa con quienes no tengan acceso a esta nueva abundancia tecnológica?
Musk nos ofrece un futuro donde la tecnología libera al ser humano de la obligación de trabajar. Pero también nos deja con una pregunta incómoda ¿y si en lugar de liberarnos, nos vuelven irrelevantes?