Un millonario salto hacia el futuro del mundo digital acaba de darse en silencio. Sin grandes anuncios en redes, sin campañas publicitarias, una startup fundada hace apenas un año ha conseguido recaudar mil millones de dólares. Ese número no es un error tipográfico. Mil millones. Y detrás de este respaldo masivo está una de las figuras más influyentes en la historia de la inteligencia artificial Fei-Fei Li.
La arquitecta del reconocimiento visual
Hace más de una década, Fei-Fei Li lideró un proyecto que cambió el rumbo de la IA moderna ImageNet. Era una base de datos gigantesca de imágenes etiquetadas, millones de ellas, que permitió entrenar a los primeros algoritmos capaces de reconocer un perro, una silla o un coche con precisión. Aquello no era solo un avance técnico. Fue la chispa que encendió la revolución del aprendizaje profundo. Sin ImageNet, es probable que los asistentes de voz, las recomendaciones automáticas o los coches autónomos aún estuvieran en fase de dibujo animado.
Hoy, Li vuelve a plantear una pregunta incómoda ¿y si todo lo que hemos construido hasta ahora solo ve la superficie de la realidad?
El salto de lo plano a lo tridimensional
Las máquinas entienden palabras e imágenes, pero no el mundo físico. Esa es la premisa que impulsa a World Labs, la startup que Li fundó en 2024. Su objetivo no es generar texto o imágenes realistas. Es mucho más ambicioso enseñar a las máquinas a comprender el espacio en tres dimensiones.
Imagina un robot que no solo ve una mesa, sino que entiende que debajo hay espacio, que una silla puede encajar allí, que si empujas un vaso podría caer y romperse. Es lo que Li llama "inteligencia espacial". Y no se trata de programar cada escenario. Es que el sistema lo infiera por sí mismo, como lo haría un niño al explorar una habitación.
"Si la IA ha de ser verdaderamente útil, debe entender mundos, no solo palabras" - Fei-Fei Li, fundadora de World Labs
Este salto no es solo técnico. Es un cambio de paradigma. Hasta ahora, la IA ha devorado texto y píxeles. Pero el mundo no es plano. Es volumétrico, dinámico, lleno de interacciones físicas. Y si queremos robots autónomos, entornos virtuales realistas o diseños arquitectónicos que evolucionen solos, necesitamos modelos que razonen en 3D.
Marble el primer mundo generado por IA
En noviembre de 2024, World Labs lanzó Marble, su primer producto comercial. No es un juguete. Es un modelo capaz de generar entornos tridimensionales completos a partir de una simple descripción de texto, una foto, un vídeo o incluso un panorama. Esos mundos no son meras visualizaciones. Son editables, descargables y exportables en formatos estándar que pueden usarse en videojuegos, efectos especiales o realidad virtual.
Un diseñador podría escribir "una cocina rústica con vigas de madera y una ventana al jardín", y Marble generaría un modelo 3D que podría modificarse después con herramientas profesionales. Esto acelera procesos que antes tomaban días o semanas. Y abre la puerta a que pequeños estudios o creadores independientes accedan a contenidos 3D de alta calidad sin necesidad de equipos enormes.
Alianzas que revelan el futuro
Los mil millones de dólares no han llegado por casualidad. Entre los inversores están gigantes como NVIDIA y AMD, responsables de los chips que alimentan la IA. Pero hay uno que destaca Autodesk, con una inversión de 200 millones de dólares.
Autodesk no fabrica robots ni redes sociales. Crea software de diseño en 3D usado por arquitectos, ingenieros, animadores y fabricantes. Su negocio gira alrededor del mundo físico digitalizado. Que apueste tan fuerte por World Labs no es solo un cheque. Es una declaración de intenciones.
"Podrías anticipar que consumiremos sus modelos o que ellos consumirán los nuestros en diferentes contextos" - Daron Green, científico jefe de Autodesk
La colaboración ya está en marcha, con foco inicial en entretenimiento y producción audiovisual. Pero el horizonte es más amplio diseño industrial, arquitectura paramétrica, simulaciones de construcción. La fusión entre diseño asistido por ordenador y generación automática de entornos podría transformar cómo se construye todo, desde una vivienda hasta una ciudad.
Robótica, el próximo escenario
Con esta ronda de financiación, World Labs no se quedará en el mundo virtual. La inteligencia espacial es clave para la robótica. Un robot que solo ve planos no puede adaptarse a un entorno cambiante. Pero uno que entiende el espacio puede planificar movimientos, evaluar riesgos, aprender de errores sin necesidad de reprogramación constante.
Imagina un brazo robótico en una fábrica que, al detectar un objeto caído, no solo lo reconoce, sino que calcula cómo moverlo sin volcar otros, qué camino es más seguro y qué pasa si aplica más fuerza. Es razonamiento espacial en tiempo real. Y es exactamente lo que World Labs quiere habilitar.
¿El siguiente paso de la IA?
No es la única jugando este partido. Google DeepMind trabaja en su familia de modelos Genie, capaces de generar mundos simulados a partir de vídeos. AMI Labs, fundada por Yann LeCun, defiende que los modelos actuales no son suficientes y que hará falta una arquitectura completamente nueva, no basada en generación, para alcanzar verdaderos modelos de mundo.
Pero Fei-Fei Li apuesta por otra vía mejorar los modelos generativos actuales hasta que puedan razonar en tres dimensiones. Es una carrera con dos filosofías distintas. Una busca reinventar la IA desde cero. La otra cree que podemos llegar lejos evolucionando lo que ya tenemos.
El resultado podría definir cómo interactuamos con la tecnología en los próximos años. No más interfaces planas. No más comandos lineales. Un mundo en el que las máquinas entiendan el espacio como nosotros lo hacemos intuitivamente, con contexto, con física. Quizá no sea tan lejano el momento en que digamos "Haz que esta habitación parezca más acogedora", y un sistema no solo mueva los muebles, sino que cambie la iluminación, el color de las paredes y el sonido ambiente, todo en 3D, todo razonado.
La inteligencia artificial ya habla, escribe y dibuja. Ahora quiere aprender a habitar.