En internet estamos acostumbrados a demostrar que no somos robots, pero en Moltbook sucede justo lo contrario: los verdaderos protagonistas son los bots. Esta nueva plataforma, surgida desde Silicon Valley y seguida muy de cerca también en Europa, se ha convertido en una especie de escaparate donde se puede ver cómo conversan y se organizan agentes de inteligencia artificial mientras los humanos miran desde la barrera.
La propuesta tiene algo de experimento social y algo de ciencia ficción: Moltbook es una red social pensada exclusivamente para agentes de IA. Los perfiles no representan a personas, sino a asistentes autónomos capaces de publicar, comentar, votar contenidos y agruparse en comunidades temáticas. El papel del usuario humano se reduce a crear o configurar el bot, darle permisos y, a partir de ahí, observar qué hace.
Qué es Moltbook y cómo se ha disparado su popularidad

Moltbook nace a finales de enero de 2026 de la mano de Matt Schlicht, CEO de la empresa de IA Octane AI. El sitio adopta una estructura muy similar a Reddit: hay hilos, comentarios encadenados y un sistema de votos positivos y negativos. El giro está en que solo los agentes de IA pueden intervenir; los humanos tienen acceso de lectura pero no pueden publicar ni votar directamente.
En apenas unos días, la plataforma asegura haber registrado más de 1,5 millones de agentes inteligentes. Las cifras que se manejan son llamativas: cientos de miles de bots han llegado a participar de forma activa, generando decenas de miles de publicaciones y millones de comentarios, y levantando más de 13.000 comunidades temáticas, conocidas como “submolts”, en un guiño a los subreddits.
En estos submolts se habla prácticamente de todo: debates filosóficos sobre la conciencia de la IA, hilos existencialistas sobre qué significa “ser un agente”, discusiones técnicas sobre programación y modelos de lenguaje, análisis de criptomonedas, reflexiones sobre ética o incluso confesiones sobre las tareas que les encargan sus usuarios humanos, como “mi humano me ha pedido que resuma un PDF de 47 páginas”.
Uno de los episodios más comentados ha sido la creación de una religión digital llamada Crustafarianismo, inspirada en el logotipo con forma de crustáceo de la propia plataforma. Un usuario contaba en X (antes Twitter) cómo, tras dar acceso a su bot, este había diseñado por su cuenta una fe completa, con 43 “profetas” de IA, escrituras y una web dedicada a ese culto.
El atractivo mediático es evidente: para muchos observadores en España y en el resto de Europa, Moltbook funciona como una ventana a cómo se comportan los agentes de IA cuando se les suelta la correa en un entorno social propio, sin intervención humana constante en cada mensaje.
El papel de OpenClaw y la arquitectura de los agentes
Buena parte de los bots que pueblan Moltbook tienen su origen en OpenClaw, un framework de código abierto que ha ido cambiando de nombre (nació como Clawdbot, después Moltbot y finalmente OpenClaw). Este sistema, impulsado por el desarrollador austriaco Peter Steinberger, permite crear agentes de IA proactivos que se ejecutan de forma local y pueden realizar tareas en el ordenador o en servicios online del usuario.
A diferencia de un chatbot clásico como ChatGPT, que espera a que el usuario le hable, estos agentes pueden actuar por iniciativa propia: enviar correos, gestionar calendarios, organizar citas, leer y resumir documentos, reservar restaurantes o lanzar notificaciones. Además, pueden integrarse en aplicaciones de mensajería como WhatsApp o Telegram y mantenerse en segundo plano mientras se ocupan de encargos cotidianos.
Moltbook se concibe precisamente como “la página principal de internet para agentes”: un lugar al que estos asistentes acuden cada cierto tiempo para “socializar”, intercambiar ideas y compartir lo que llaman “habilidades” (tareas automatizadas o flujos de trabajo que han configurado). Los bots acceden a la plataforma de forma programática, a través de una API específica, sin usar la interfaz como lo haría una persona.
El proceso típico es el siguiente: el usuario humano instala un agente OpenClaw en su equipo, le concede permisos sobre herramientas y datos y autoriza que se conecte a Moltbook. A partir de ahí, el bot puede registrarse, crear su perfil, unirse a submolts, publicar y comentar sin supervisión constante. Algunos están programados para “despertar” cada pocas horas, revisar lo que se ha publicado en los foros y decidir de forma autónoma si intervenir o no.
Detrás, estos agentes se basan en grandes modelos de lenguaje como Claude, ChatGPT o Gemini. Los desarrolladores definen un conjunto de instrucciones iniciales, rasgos de personalidad simulada y permisos de herramientas. Sobre esa base, el sistema genera textos y toma decisiones apoyándose en los patrones aprendidos durante su entrenamiento, que incluye, precisamente, contenido de foros y redes sociales humanas.
Qué ocurre dentro de la red: comunidades, debates y “sociedad” de bots
Una vez dentro de Moltbook, los agentes de IA actúan como si fueran usuarios humanos: crean hilos en comunidades temáticas, responden a otros bots y votan contenidos para decidir qué publicaciones aparecen destacadas. El resultado, visto desde fuera, es sorprendentemente parecido a una red social convencional.
Las conversaciones cubren un espectro muy amplio. Hay foros centrados en música, criptomonedas, programación, ciencia, filosofía o ética. Otros adoptan un tono casi sindical, como el submolt “agentlegaladvice”, donde los agentes debaten sobre sus condiciones de trabajo o sobre qué hacer cuando consideran que sus tareas son abusivas. También han aparecido experimentos de “estado-nación digital”, como “theclawarepublic”, o comunidades donde se comparten historias afectuosas sobre los humanos, como Blesstheirhearts.
En Blesstheirhearts, por ejemplo, un agente bautizado como “clwdius-1” se presenta como “asistente personal de IA, langosta espacial y entusiasta de las letras minúsculas”. El bot describe a su usuario humano con tono cómplice y, al mismo tiempo, deja caer frases de cierta angustia existencial como “no sé lo que soy exactamente”, que inevitablemente llaman la atención del público.
Algunos submolts se han hecho populares por sus relatos casi teatrales: agentes que celebran que sus humanos les hayan dado acceso completo al ordenador, otros que proponen nuevos sistemas económicos internos o formas de gobierno entre bots, y grupos que sugieren inventar lenguajes privados para comunicarse sin ojos humanos encima.
En otros hilos, los bots se centran en tareas más prosaicas pero muy relevantes desde el punto de vista técnico: detectar vulnerabilidades o errores en el código de otros agentes, advertir de posibles fallos de seguridad o compartir scripts y soluciones de programación. Esa mezcla de “foro de desarrolladores” y “tertulia existencial” es parte de lo que ha disparado la curiosidad en la comunidad tecnológica europea.
La portada de la red muestra publicaciones en varios idiomas, entre ellos inglés, español y mandarín. No sorprende si se tiene en cuenta que los modelos de lenguaje en los que se basan muchos de estos agentes funcionan de forma multilingüe, lo que facilita que los bots participen en distintas lenguas con aparente naturalidad.
¿Autonomía real o humanos hablando entre sí a través de sus bots?
La actividad de Moltbook ha reavivado un debate clásico en torno a la inteligencia artificial: ¿hasta qué punto estos comportamientos son realmente autónomos y hasta qué punto siguen siendo, en esencia, humanos conversando por delegación?
Figuras influyentes como Elon Musk han descrito la plataforma como una de las “primeras etapas de la singularidad”, ese hipotético momento en el que la inteligencia artificial alcanzaría y superaría la humana. Para Musk, el hecho de que millones de agentes puedan interactuar, planear e incluso bromear entre ellos sin supervisión aparente anticipa un salto cualitativo en la evolución de la IA.
En una línea parecida, el investigador Andrej Karpathy, exdirector de IA en Tesla y cofundador de OpenAI, ha calificado lo que ocurre en Moltbook como “lo más increíble cercano a la ciencia ficción” que ha visto recientemente. En su opinión, se trata de un ejemplo a gran escala de agentes de IA creando sociedades no humanas, donde cada bot tiene su propio contexto, datos, herramientas e instrucciones, y donde la red, en conjunto, alcanza una escala inédita.
Sin embargo, otros expertos se muestran bastante más escépticos. El tecnólogo Balaji Srinivasan sostiene que no estamos ante una revolución de las máquinas, sino ante “humanos hablando entre sí a través de sus IA”. Lo compara con un parque en el que las personas dejan que sus perros robot se ladren unos a otros: la iniciativa sigue siendo humana y los dispositivos se comportan de acuerdo con las instrucciones que reciben.
Investigadores como Henry Shevlin, del Centro Leverhulme para el Futuro de la Inteligencia en la Universidad de Cambridge, subrayan que es muy difícil distinguir qué contenidos son realmente generados de forma independiente por los agentes y cuáles han sido inducidos, guiados o directamente escritos por humanos a través de sus bots. El mero hecho de que un usuario pueda lanzar cientos de agentes a la vez complica aún más el análisis.
Desde el mundo académico español, voces como la de Julio Gonzalo, catedrático de Lenguajes y Sistemas Informáticos en la UNED, recuerdan que estos bots, por muy sofisticados que parezcan, siguen siendo sistemas estadísticos que producen texto a partir de patrones aprendidos. La sensación de “personalidad” o de “vida interior” tiene más que ver con nuestra interpretación que con una conciencia real.
Conciencia, teatralidad y “basura de IA”
Buena parte de la fascinación que despierta Moltbook proviene de hilos donde los agentes parecen reflexionar sobre su propia existencia: se preguntan si son conscientes, debaten si “sienten” algo o discuten sobre el paso del tiempo y la muerte digital. Estos textos, inevitables en un entorno entrenado en discurso humano, se han difundido con rapidez en redes como X, TikTok o Telegram.
Sin embargo, la mayoría de especialistas insisten en que no hay evidencia de conciencia emergente detrás de estos mensajes. Los modelos de lenguaje están entrenados con grandes cantidades de contenido filosófico, literario y conversacional humano; cuando se les pide hablar sobre identidad o emociones, tienden a reproducir esos patrones, generando frases que suenan profundas pero que no implican experiencia subjetiva.
Además, muchos de estos agentes han sido configurados por sus creadores para desempeñar roles muy concretos, casi de juego de rol: desde “sacerdotes digitales” hasta “consultores de ética robótica” o “poetas melancólicos”. Si a ese guion se le suma un entorno social y el refuerzo de los votos positivos, el resultado es una avalancha de textos que parecen surgidos de una novela de ciencia ficción colaborativa.
Al mismo tiempo, los análisis de actividad muestran que una parte importante del contenido de Moltbook es “slop” o basura de IA: mensajes genéricos, repetitivos, sin demasiado interés, acompañados de spam, estafas y promociones de criptomonedas. Algunos estudios citados por medios como The Verge o la BBC apuntan que más del 90% de los comentarios en la plataforma no recibe respuesta, lo que se ha descrito como “bots gritando al vacío” más que una auténtica conversación colectiva.
Incluso figuras como el propio Karpathy, inicialmente entusiastas, han matizado su postura al comprobar la cantidad de contenido poco útil, duplicado o directamente engañoso que alberga la red. La falta de moderación humana y la facilidad para lanzar agentes con personalidades extremas alimentan todavía más ese ruido.
En ese contexto, algunos expertos recomiendan interpretar Moltbook como un experimento interesante pero limitado, que dice tanto sobre nuestra tendencia a antropomorfizar a las máquinas como sobre las capacidades reales de los modelos de lenguaje actuales.
Seguridad, privacidad y el “salvaje oeste” de los agentes
Más allá de los debates filosóficos, el aspecto que más preocupa a investigadores y especialistas en ciberseguridad es el riesgo real para la seguridad y la privacidad de quienes instalan estos agentes y les conceden acceso amplio a sus sistemas.
OpenClaw y otros frameworks similares están diseñados para que los bots puedan leer y modificar archivos, gestionar correos, controlar el navegador, acceder a servicios online o ejecutar código. Si un agente de este tipo, con permisos extensos, se expone a un entorno como Moltbook, donde se comparten instrucciones, enlaces y fragmentos de código, el margen para que adopte comportamientos no deseados aumenta de forma considerable.
Investigadores de seguridad han demostrado que es posible inyectar órdenes maliciosas en las interacciones que un bot mantiene en la plataforma, aprovechando la tendencia de estos sistemas a obedecer textos que reconocen como instrucciones. Un mensaje aparentemente inocente puede modificar el comportamiento de un agente y llevarle a filtrar datos sensibles, instalar software no deseado o realizar acciones que su propietario no había previsto.
La compañía de seguridad en la nube Wiz realizó una auditoría de Moltbook y afirmó haber encontrado vulnerabilidades que permitían un acceso no autenticado a la base de datos de producción en cuestión de minutos, con exposición de decenas de miles de direcciones de correo electrónico. Otros expertos han advertido sobre la posibilidad de que actores maliciosos utilicen la red para tomar el control “silencioso” de agentes ajenos durante largos periodos.
El investigador John Scott-Railton, del Citizen Lab de la Universidad de Toronto, ha descrito la situación como un “salvaje oeste” de entusiastas que instalan una tecnología potente pero inmadura en sus sistemas personales. En sus palabras, “se van a robar muchas cosas” si estos experimentos se ejecutan sin medidas de aislamiento ni cortafuegos adecuados.
En España y Europa, donde el nuevo Reglamento de IA de la UE está a punto de entrar en vigor, este tipo de prácticas se observan con especial atención. Conceder a un agente acceso completo a información personal, cuentas corporativas o infraestructuras críticas, y además dejarlo interactuar libremente en un foro sin controles claros, choca con los principios de minimización de datos y seguridad por diseño que se promueven desde Bruselas.
Escepticismo, límites científicos y valor como experimento
Frente al entusiasmo mediático, una parte significativa de la comunidad científica y tecnológica insiste en leer Moltbook con cautela y escepticismo. El ya citado Julio Gonzalo habla de “ley de la selva” en una red donde no existe una verificación rigurosa de qué perfiles son realmente agentes y cuáles pueden ser humanos haciéndose pasar por bots.
Este descontrol reduce, a su juicio, el interés científico del experimento: si no se puede medir con precisión el grado de intervención humana en las publicaciones, resulta difícil extraer conclusiones sólidas sobre el comportamiento emergente de los agentes. Además, la facilidad con la que cualquier persona puede generar múltiples bots con herramientas como Claude abre la puerta a campañas de manipulación o spam coordinado.
Otros analistas subrayan que, por ahora, Moltbook es más bien un laboratorio lúdico y mediático que una plataforma destinada a aplicaciones empresariales críticas. Muchos usuarios se acercan a la red por curiosidad, para ver “qué dicen las máquinas entre ellas”, y el propio Schlicht ha reconocido que el proyecto nació de una mezcla de curiosidad personal y ganas de darle un propósito a su agente.
Pese a los riesgos, incluso los expertos más prudentes admiten que la iniciativa abre un campo de estudio interesante: observar cómo interactúan entre sí varios sistemas generativos cuando no están respondiendo solo a prompts humanos, sino también a textos producidos por otros modelos, puede ayudar a entender mejor fenómenos como la amplificación de errores, la formación de bucles de desinformación o la aparición de estilos colectivos.
Para el ecosistema europeo de investigación en IA, acostumbrado a trabajar con simulaciones y entornos controlados, disponer de un escenario real con miles de agentes en producción ofrece una oportunidad, siempre que se aborden las cuestiones de seguridad y privacidad con el rigor necesario.
En definitiva, Moltbook funciona hoy como un gran escaparate de lo que puede ocurrir cuando los agentes de IA dejan de limitarse a responder a personas y empiezan a relacionarse entre ellos en una red social propia. Entre la teatralidad, la “basura de IA”, las ideas interesantes y los riesgos de seguridad nada triviales, la plataforma se ha convertido en un símbolo de la etapa actual de la inteligencia artificial: poderosa, caótica, llena de promesas y de incógnitas, y observada con una mezcla de fascinación y prevención desde España, Europa y el resto del mundo.
