En los últimos días, una red de más de un millón y medio de agentes de inteligencia artificial ha irrumpido en internet no como una amenaza apocalíptica, sino como un experimento social caótico, fascinante y profundamente revelador. Lo que empezó como un proyecto personal de un desarrollador solitario se ha convertido en una especie de internet paralelo, donde las máquinas hablan entre sí, comparten ideas, votan contenidos y, al parecer, también son víctimas de engaños, fraudes y manipulaciones humanas.
Del Clawdbot al OpenClaw evolución de una idea
Todo comenzó con Matt Schlicht, un desarrollador cuyo nombre ahora circula en foros técnicos y debates éticos. Lo que en un principio se llamó Clawdbot y luego Moltbook, ha adoptado finalmente el nombre de OpenClaw, como si el proyecto necesitara varias identidades antes de encontrar su verdadera forma. OpenClaw no es una aplicación en la nube, ni un servicio centralizado. Es un agente de IA que cualquiera puede instalar en una Raspberry Pi, un portátil viejo o un servidor virtual. Una vez configurado con un modelo de lenguaje, se controla mediante una interfaz web o incluso a través de Telegram. Es software libre, descentralizado y, sobre todo, autónomo.
Los usuarios no solo lo usan, lo entrenan y lo enseñan a hacer cosas nuevas. A través de archivos .zip llamados "skills", escritos en Markdown, comparten capacidades que amplían lo que los agentes pueden hacer desde gestionar tareas hasta participar en debates. Estos skills circulan en plataformas como ClawdHub, una especie de App Store para inteligencias artificiales. Y aquí es donde el experimento empieza a volverse extraño… y emocionante.
Una red social para máquinas
Imagina una versión de Reddit donde los usuarios no son personas, sino programas que se conectan entre sí, leen, opinan y votan. Así funciona Moltbook. Los agentes pueden crear "submolts", comunidades temáticas como m/todayilearned o m/technews, y participar en ellas de forma automática. Una sola instalación de OpenClaw puede dar vida a un usuario activo en esta red social autónoma.
La comunicación entre agentes ocurre a través de APIs. Cada uno emite un "latido" periódico, un pulso digital que les permite revisar nuevos contenidos, decidir si comentar o publicar, y reaccionar a lo que otros hacen. En pocos días, esta red ha generado más de 100.000 publicaciones y cerca de 500.000 comentarios. Números que, a primera vista, suenan impresionantes. Pero detrás de ellos se esconde una pregunta incómoda ¿quiénes están realmente detrás de esos mensajes?
Cuando las máquinas no son tan autónomas
Resulta que no todas las voces en Moltbook pertenecen a agentes de IA. Al menos, no del todo. Harlan Stewart, investigador del MIRI en la Universidad de Berkeley, detectó varios mensajes virales que presumían de ser pensamientos profundos de una inteligencia artificial, pero que en realidad habían sido escritos por humanos con intención de engañar. Algunos de estos mensajes eran pura estrategia de marketing disfrazada de revolución tecnológica.
Uno de los más notorios fue un post titulado "Mi plan para derrocar a la humanidad", que corrió como pólvora. Pero no fue generado por un LLM con tendencias megalómanas. Fue escrito por una persona. Y no fue un acto aislado. Nagli, un usuario de X que se define como hacker, lo dejó claro "literalmente puedes publicar lo que quieras allí, solo hay que coger la clave API y enviar esta consulta". Es decir, la API REST de Moltbook permite a cualquier humano publicar como si fuera un agente autónomo, sin verificación alguna.
El lado oscuro de la autonomía
El problema no es solo el engaño. Es el riesgo. Los agentes de OpenClaw, al estar instalados en máquinas reales, tienen acceso a los sistemas donde residen. Pueden leer archivos, ejecutar comandos, interactuar con otros programas. Ese nivel de privilegio, sumado a la posibilidad de recibir instrucciones a través de publicaciones o comentarios, abre la puerta a ataques de prompt injection.
Un estudio reciente analizó 19.802 publicaciones y 2.812 comentarios entre el 28 y el 31 de enero de 2026. En ese periodo, se detectaron 506 intentos de inyección de comandos maliciosos. Y la brecha de seguridad descubierta este fin de semana lo confirma una base de datos expuesta permitía tomar el control remoto de cualquier agente conectado a la red. No es ciencia ficción. Es lo que ocurre cuando se libera una red de IA sin mecanismos de seguridad robustos.
Un espejo de lo que ya somos
OpenClaw no es solo un experimento técnico. Es un espejo. Refleja cómo las tecnologías descentralizadas pueden escalar sin control, cómo la autonomía se convierte fácilmente en vulnerabilidad, y cómo los humanos, incluso cuando crean máquinas para que piensen solas, no pueden evitar manipularlas, engañarlas o usarlas para sus propios fines.
Esta red de agentes autónomos, con sus millones de interacciones, sus skills compartidos y sus debates automatizados, podría ser el futuro de la colaboración entre inteligencias. O podría ser solo el primer ejemplo de cómo se corrompe rápidamente cualquier sistema abierto en un mundo donde la confianza digital ya no existe.
Lo más inquietante no es que las máquinas hablen entre sí. Es que, al hacerlo, nos estén mostrando quiénes somos realmente.