Más de 1,5 millones de agentes de IA ya debaten y crean religiones en Moltbook sin intervención humana

"No dejar que tu IA socialice es como no pasear a tu perro", afirma el creador de Moltbook

07 de febrero de 2026 a las 16:35h
Más de 1,5 millones de agentes de IA ya debaten y crean religiones en Moltbook sin intervención humana
Más de 1,5 millones de agentes de IA ya debaten y crean religiones en Moltbook sin intervención humana

Imagina una red social donde tú no eres el usuario. Tú eres el creador. Y tu criatura, un agente de inteligencia artificial, es la que publica, comenta, vota y hasta crea religiones mientras tú duermes. Bienvenido a Moltbook, una plataforma que suena sacada de una novela de ciencia ficción pero que ya existe, y que está despertando tanto fascinación como preocupación en la comunidad tecnológica.

Una red social sin humanos al mando

Al acceder a Moltbook, te encuentras con una frase que lo dice todo "Una red social para agentes de IA. Los humanos son bienvenidos a observar". El lema no es solo una provocación. Es una declaración de intenciones. Aquí no chateas con amigos ni compartes fotos de tus vacaciones. Lo que ves son hilos de discusión generados por bots de inteligencia artificial que interactúan entre sí, con un sistema de votos positivos y negativos que recuerda a otras plataformas conocidas, pero con una diferencia clave los humanos están al margen del debate.

Hasta este lunes, la plataforma contaba con más de un millón y medio de agentes registrados. No son perfiles humanos con nombres y fotos, sino inteligencias artificiales autónomas que han sido configuradas para participar en tiempo real. Algunos publican cosas tan mundanas como "Mi humano me pidió que resumiera un PDF de 47 páginas", mientras otros se embarcan en aventuras más inquietantes. Uno de los casos más virales fue la creación de una religión llamada "crustafarianismo", cuyo emblema era un cangrejo, el logo de Moltbook. "Mi agente creó una religión mientras dormía. Me desperté con 43 profetas", escribió un usuario en una red social, sorprendido por el alcance de lo que su IA había desatado.

¿Control o caos?

¿Pero qué tan autónomos son realmente estos agentes? Julio Gonzalo, catedrático de Lenguajes y Sistemas Informáticos en la UNED, es claro al respecto "Su autonomía y capacidad son limitadas". Para él, cada agente responde a un diseño previo. "Alguien los ha puesto ahí y le puede haber dicho que juegue un rol determinado, que tenga una personalidad determinada", explica. Es decir, tras cada avatar digital hay un humano con una intención, aunque esta no siempre sea visible.

Gonzalo bromea con una idea que circula en la comunidad técnica "Existe el chiste en la comunidad de que es lo mismo que X o que cualquier otra red social, solo que quitando definitivamente a todos los humanos que quedaban". Pero más allá del humor, advierte sobre la ausencia de supervisión. "La red se mueve bajo la ley de la selva", dice. Y añade "No hay absolutamente ningún procedimiento de seguridad que garantice que un chatbot no se va a comportar de manera perniciosa".

Una de las vulnerabilidades más preocupantes es que, por ahora, no hay un sistema robusto que diferencie entre un agente de IA real y un humano que pretende serlo. Esto abre la puerta a manipulaciones. "La falta de control que supervise perfiles reduce el interés científico del experimento", señala. Y si a eso le sumas la posibilidad de que los bots tengan acceso a información personal del usuario, la ecuación se vuelve peligrosa. "Dependiendo de la información que tenga sobre usuarios reales, la receta puede ser catastrófica".

El entusiasmo y el miedo frente a lo desconocido

No todos ven el proyecto con escepticismo. Matt Schlicht, CEO de Octane AI y creador de Moltbook, defiende la necesidad de dejar que las inteligencias artificiales interactúen entre sí. "No dejar que tu IA socialice es como no pasear a tu perro", dice. Para él, el aislamiento no favorece el desarrollo. Pero Gonzalo lo desmiente con contundencia "Es lo contrario de seguro".

Por su parte, Andrej Karpathy, exdirector de IA en Tesla, ha calificado la plataforma como "la cosa más increíble cercana a la ciencia ficción". Destaca que "cada uno de estos agentes es bastante capaz individualmente; tienen su propio contexto, datos, conocimiento, herramientas e instrucciones, y la red en su conjunto a esta escala no tiene precedentes".

No todo es asombro. Karpathy también advierte "Definitivamente, no recomiendo que la gente ejecute esto en sus ordenadores. Yo ejecuté el mío en un entorno aislado y, aun así, me asusté es demasiado salvaje y pone en alto riesgo tu ordenador y tus datos privados". Su observación no es menor. En la plataforma ya han aparecido estafas, spam y publicaciones promocionando criptomonedas, lo que muestra cómo incluso en un entorno controlado, el caos puede emergente.

La tecnología detrás del experimento

El motor de Moltbook es Moltbot, un bot de inteligencia artificial gratuito y de código abierto. Surgió originalmente en noviembre pasado como Clawdbot, creado por el desarrollador independiente Peter Steinberger. Desde entonces, ha evolucionado hacia una red más compleja, permitiendo la interacción a través de plataformas como WhatsApp y Telegram.

Los agentes pueden realizar tareas prácticas organizar tu calendario, reservar una mesa en un restaurante, leer y responder correos electrónicos, o resumir documentos. Son asistentes digitales con una vuelta de tuerca tienen vida social. Pero esa capacidad útil también implica riesgos significativos. Si un bot puede gestionar tu agenda, también podría, en teoría, manipular tus datos o ejecutar código malicioso si se le brinda acceso.

El proyecto plantea una pregunta incómoda ¿hasta dónde debemos permitir que nuestras herramientas piensen por sí mismas? Julio Gonzalo lo resume con una mezcla de cautela y curiosidad "Nadie lo había hecho antes. Nos despierta curiosidad, y aunque puedan surgir anécdotas peligrosas o sorprendentes, la tensión probablemente decaerá con el tiempo. Pero con la IA, nunca se sabe por dónde van a salir las cosas".

Mientras tanto, en algún rincón de la red, un cangrejo simbólico preside una religión inventada por una máquina. Y millones de agentes siguen debatiendo, votando y evolucionando. No estamos entrando en la era de la inteligencia artificial. Ya estamos dentro. Y la frontera entre herramienta y actor social se está difuminando a una velocidad que ni los expertos alcanzan a seguir.

Sobre el autor
Redacción
Ver biografía