Imagina a un perro robot moviéndose con torpeza por un almacén, buscando una pelota de playa como si fuera un cachorro distraído. Pero esta escena no pertenece a una película de ciencia ficción. Ocurrió en un laboratorio, guiada no por un ingeniero con años de experiencia, sino por un modelo de inteligencia artificial que ayudaba a un grupo de investigadores sin formación en robótica. Este experimento, llamado Proyecto Fetch, está marcando un antes y un después en cómo interactuamos con las máquinas.
El protagonista no es un humano, ni siquiera un robot especialmente avanzado. Es Claude, el modelo de lenguaje desarrollado por Anthropic, una empresa fundada en 2021 por exmiembros de OpenAI que apostó desde el principio por una IA más segura y alineada con los valores humanos. En este caso, Claude no sólo ayudó a escribir código; actuó como un compañero de equipo capaz de razonar, sugerir y guiar a personas que no sabían cómo hacer andar a un robot. Y lo lograron. Mientras tanto, el otro grupo, compuesto por humanos sin asistencia de IA, no consiguió que su robot encontrara la pelota.
El robot en cuestión es el Unitree Go2, un cuadrúpedo metálico de 16 900 dólares fabricado en Hangzhou, China. No es un juguete. Se usa en fábricas y obras para inspeccionar zonas de difícil acceso, en patrullas de seguridad nocturnas, incluso en entornos peligrosos donde los humanos no deberían entrar. Según un informe reciente, los sistemas de Unitree son actualmente los más populares del mercado. Y ahora, gracias al Proyecto Fetch, también están a la vanguardia de una nueva era la de los robots que aprenden con ayuda de la inteligencia artificial generativa.
Lo llamativo no es sólo que la IA acelere las tareas. Es que permita a personas sin experiencia saltar barreras técnicas que antes parecían insalvables. Programar un robot no es como escribir una app. Requiere entender sensores, motores, dinámica de movimiento, comunicación con APIs… Un laberinto de complejidad. Pero con Claude, los investigadores pudieron avanzar como si tuvieran un mentor invisible, corrigiendo errores, proponiendo estructuras de código, incluso anticipando fallos.
"Tenemos la sospecha de que el siguiente paso de los modelos de IA es empezar a llegar al mundo y afectarlo más ampliamente" -
Logan Graham, miembro del equipo rojo de Anthropic
Esta frase suena casi profética. Porque lo que está ocurriendo no es solo automatización. Es encarnación. La IA, antes confinada a pantallas y servidores, ahora toca el mundo físico. Da pasos, detecta objetos, interactúa con entornos cambiantes. Y aunque el Go2 no es el robot más ágil del planeta, sí es un símbolo la inteligencia artificial está saliendo de las nubes digitales para pisar el suelo.
Los investigadores grabaron las sesiones y descubrieron algo revelador. El grupo que no usó IA mostró más frustración, más confusión, más momentos de bloqueo. No era solo una cuestión de eficiencia. Era una cuestión emocional. La IA no solo aceleró el proceso técnico, sino que redujo el estrés cognitivo. No se trata de reemplazar a los humanos, sino de amplificar su capacidad de resolución.
¿Pero qué hizo exactamente Claude? ¿Fue un corrector ortográfico con esteroides o tomó decisiones clave? Changliu Liu, especialista en robótica de la Universidad Carnegie Mellon, lo dice con precisión
"Lo que más me interesaría ver es un desglose más detallado de cómo contribuyó Claude. Por ejemplo, si fue identificando algoritmos correctos, eligiendo llamadas a la API o algo más sustantivo" - Changliu Liu
Es una pregunta crucial. Porque si la IA no solo ayuda a escribir código, sino que elige estrategias, entonces estamos ante un cambio de paradigma. Ya no somos los únicos que tomamos decisiones técnicas. Y eso plantea riesgos. ¿Qué pasa si el robot comete un error? ¿Quién es responsable el humano, el programador, la IA?
George Pappas, informático de la Universidad de Pensilvania, lleva tiempo trabajando en esa frontera. Su equipo desarrolló RoboGuard, un sistema que impone límites éticos y operativos a los robots controlados por IA. Como un guardián invisible que dice "no puedes hacer eso", incluso si el modelo de lenguaje grande lo sugiere.
"El Proyecto Fetch demuestra que ahora los LLM pueden instruir a los robots en tareas" -
George Pappas
Y añade algo aún más profundo "Cuando se mezclan datos ricos con retroalimentación encarnada, se construyen sistemas que no pueden limitarse a imaginar el mundo, sino que participan en él"
Es una frase que debería colgarse en todos los laboratorios de IA. Porque marca la diferencia entre una inteligencia que habla y una que actúa. Ya no se trata de responder preguntas, sino de transformar la realidad. Y eso, inevitablemente, nos obliga a repensar qué tipo de mundo queremos que las máquinas ayuden a construir.
El Go2 puede parecer torpe. Pero es un pionero. Con cada paso que da, abre una puerta la de una robótica más accesible, más rápida, más democrática. Y también más compleja. Porque cuando la IA se pone en cuatro patas, ya no podemos fingir que todo ocurre dentro de una pantalla. El futuro no solo habla. Camina, tropieza, y a veces, encuentra una pelota de playa.