Hay un rumor en el aire, una especie de zumbido que recorre laboratorios, startups y salas de juntas la inteligencia artificial general (AGI) ya no es un horizonte lejano, sino algo que podría estar tocándonos el hombro. No se trata de una predicción cualquiera, sino de una afirmación contundente pronunciada por Jensen Huang, el CEO de NVIDIA, en una conversación que ha dejado huella. "Creo que es ahora. Creo que hemos logrado la AGI", dijo sin aspavientos durante una entrevista con Lex Fridman. Palabras que, en cualquier otro contexto, sonarían a ciencia ficción. Pero en 2025, con el poder de cómputo y los modelos de lenguaje avanzando a ritmo exponencial, suenan más bien a un parte de situación.
¿Qué significa haber alcanzado la AGI?
La inteligencia artificial general no es simplemente un chatbot que responde preguntas o escribe poemas. Es la capacidad de una máquina para razonar, planificar, aprender de la experiencia y adaptarse a situaciones nuevas, tal como lo haría un ser humano. Hasta hace poco, se consideraba que estábamos a décadas de lograrlo. Huang, sin embargo, redefine el hito no como una revolución futura, sino como un proceso ya en marcha. No se trata de que una IA pueda hacer todo lo que hace un humano, sino de que ya puede desempeñar tareas complejas que antes requerían inteligencia general crear servicios digitales, tomar decisiones estratégicas, incluso operar con autonomía en entornos dinámicos.
En la misma conversación, Fridman lanzó una pregunta provocadora ¿podría un sistema de IA crear y gestionar una empresa tecnológica valorada en más de mil millones de dólares en cinco o veinte años? Huang no respondió con un sí o un no rotundo. En cambio, lo reformuló "¿Puede un sistema de IA crear un servicio web viral que genere brevemente mil millones de dólares en ingresos? Sí, creo que ya puede". Es un matiz, pero importante. No se trata de replicar la trayectoria de una empresa como NVIDIA, algo que Huang descarta rotundamente para una masa de 100.000 agentes de IA "es del cero por ciento", dijo, pero sí de reconocer que la capacidad de impacto económico inmediato ya está aquí.
Los agentes invisibles que ya operan en la sombra
¿Y qué hacen exactamente estos agentes de IA? Huang los imagina como entidades autónomas capaces de interactuar con plataformas digitales, tomar decisiones basadas en datos y ejecutar acciones sin intervención humana constante. Podrían, por ejemplo, gestionar un influencer digital, publicar contenido, responder comentarios y optimizar métricas de audiencia. O bien, alimentar un Tamagotchi virtual una metáfora, claro, pero también una manera de decir que incluso aplicaciones aparentemente lúdicas podrían convertirse en negocios multimillonarios si son escalables y autónomos.
Y no es solo teoría. Plataformas como OpenClaw, un proyecto de IA agéntica de código abierto, están demostrando que es posible construir ecosistemas donde múltiples agentes colaboran, aprenden y evolucionan. Estos no son chatbots pasivos son actores digitales con objetivos, memoria de contexto y capacidad de razonamiento. La diferencia es que ya no esperan instrucciones, sino que las generan por sí mismos. Y eso cambia todo.
El debate entre los gigantes de la IA
No todos están de acuerdo con Huang. Yann LeCun, una de las figuras más respetadas en el campo de la IA y hasta hace poco jefe de IA en Meta, mantiene que los modelos de lenguaje actuales por muy poderosos que sean no son el camino hacia la AGI. Para él, el verdadero avance vendrá con los "modelos de mundo" sistemas que aprenden observando el entorno, que pueden imaginar escenarios futuros, predecir consecuencias y operar como lo hace el cerebro humano. Según LeCun, los modelos actuales son como actores que recitan un guion, no como personas que entienden la trama.
Pero mientras los expertos discuten, el mundo real sigue moviéndose. Sam Altman, de OpenAI, ha alimentado durante años la expectativa de que la AGI está a la vuelta de la esquina. Mark Zuckerberg ha formado un "superequipo" dentro de su empresa dedicado exclusivamente a ese objetivo. Dario Amodei, fundador de Anthropic, cree que estamos más cerca de lo que pensamos. Hasta Elon Musk ha afirmado que Grok 5, su modelo de IA, podría alcanzar la AGI. No son solo declaraciones de intenciones, sino inversiones masivas de tiempo, talento y dinero.
El debate, entonces, ya no es solo técnico, sino profundamente social. Si la AGI es posible o si ya está entre nosotros en una forma incipiente, ¿qué significa eso para el trabajo, la creatividad, la propiedad intelectual? ¿Quién es responsable de las decisiones que toma un agente autónomo? Estamos aprendiendo a convivir con inteligencias que no son humanas, pero cuyos efectos sí lo son. Y tal vez, como sugiere Huang, ya no necesitemos esperar al futuro para verlo. Tal vez solo necesitemos abrir los ojos.