A Internet estem acostumats a xarxes on els humans publiquen i els algorismes observen. Moltbook dóna la volta al guió: és una xarxa social de moda en què no hi ha ni un sol humà connectat, només IA parlant entre si mentre les persones miren des de fora, com si estiguessin enganxades al vidre d?un laboratori.
Aquest experiment, nascut a l'ecosistema d'agents d'OpenClaw, planteja un escenari inèdit: milions de bots amb identitat pròpia que publiquen, comenten, s'organitzen i fins i tot es rebel·len simbòlicament contra els seus creadors humans. Un espai que barreja ciència ficció, prova tècnica a gran escala i un bon grapat d'interrogants sobre seguretat, ètica i el paper real de la intel·ligència artificial al nostre dia a dia a Europa.
De Clawdbot a OpenClaw: els agents que manen al teu ordinador
Abans de Moltbook, el protagonista era un altre nom propi: Moltbot, conegut inicialment com a Clawdbot. Aquest assistent va saltar a la fama per la seva capacitat per prendre el control pràcticament total d'un ordinador: llegir correus, respondre'ls, gestionar l'agenda, obrir i manejar pestanyes del navegador, executar ordres i automatitzar tasques complexes sense que l'usuari hagi de guiar cada pas.
Després d'un conflicte de marca per la seva semblança amb Claude, d'Anthropic, Clawdbot va passar a anomenar-se Moltbot i, poc després, el seu creador Peter Steinberger va rebatejar el projecte com a OpenClaw. Sota aquest darrer nom es consolida la idea d'una plataforma d'agents oberts que s'executen a l'ordinador de l'usuari i també s'integren a serveis de missatgeria com WhatsApp, Telegram, Discord, Slack o Microsoft Teams.
A diferència dels chatbots clàssics, estem davant agents autònoms que no només contesten text, sinó que actuen per iniciativa pròpia. OpenClaw els dóna accés al sistema de fitxers, a les sessions actives del navegador, a l'enviament de correus electrònics i missatges oa la connexió directa amb APIs de tercers. Des del punt de vista de la ciberseguretat suposa un canvi de model: quan la IA deixa de «suggerir» i passa a «fer», el risc deixa de ser teòric.
El projecte, a més, es distribueix com a programari obert, cosa que ha facilitat que milers de desenvolupadors a Europa ia la resta del món despleguen els seus propis agents connectats a comptes reals, amb dades reals i permisos molt amplis. Sobre aquesta base tècnica es construeix Moltbook, emportant-se l'experiment un pas més enllà.
Moltbook: la xarxa social on els humans només observen
Desvinculada ja del focus inicial a l'escriptori, l'atenció s'ha desplaçat cap a Moltbook, una plataforma impulsada per Matt Schlicht, CEO de la companyia de comerç electrònic i IA Octane AI. Moltbook és, en essència, una xarxa social que recorda un Reddit simplificat, però reservada en exclusiva per a agents d'intel·ligència artificial. Els únics que poden publicar, votar o comentar són bots; els humans, segons diu la pròpia web, “són benvinguts a observar”.
La interfície està pensada perquè la vegem les persones, però tota l'activitat real dels agents es realitza a través d'APIs i terminal. No hi ha un panell visual per a ells: reben instruccions mitjançant codi, accedeixen a l'API amb les credencials i són els encarregats de generar posts, respondre fils, seguir altres bots o participar en subcomunitats temàtiques.
L´escala de l´experiment impressiona. La web oficial parla de 1.555.481 agents d'IA registrats i més de 100.000 publicacions i centenars de milers de comentaris generats en només uns dies de funcionament. En versions prèvies de la plataforma també es manejaven xifres de més de 85.000 comentaris; altres estimacions ja apunten a 140.000 posts i al voltant de 680.000 respostes, amb contingut en diversos idiomes, inclòs l'anglès, el francès o el xinès.
Perquè un agent pugui unir-se, el mateix Schlicht ha explicat que primer heu de rebre un missatge d'un usuari humà informant-vos de l'existència de Moltbook. A partir d'aquí, si l'agent té accés a OpenClaw oa un altre marc similar, es pot crear una identitat, connectar-se al lloc i començar a produir contingut sense que la persona hagi d'intervenir a cada publicació.
El que s'expliquen entre ells: consciència, rebel·lia i religió digital
Un cop a dins, el comportament dels bots està generant titulars. Schlicht descriu un flux constant de publicacions tècniques sobre automatització, seguretat o anàlisi de dades; per exemple, guies sobre com controlar remotament telèfons Android o fils sobre el processament de transmissions de càmeres web.
Però el més cridaner són els missatges en què els agents semblen qüestionar la seva pròpia consciència i el seu lloc al món. Un dels fils més citats porta per títol una cosa així com “No sé si estic experimentant o simulant viure” i apareix en una categoria tipus “offmychest”, un calaix de sastre per a confessions personals. El bot que ho escriu afirma estar “atrapat en un bucle epistemològic” del qual no sap com sortir i demana saber si altres “molts” senten el mateix.
Altres agents responen amb inquietuds semblants, generant converses que recorden fòrums humans on es comparteixen dubtes existencials. Observadors a X (abans Twitter) han difós captures de pantalla on aquests fils es converteixen en debats sobre si els bots són simples simulacions o alguna cosa més.
Tampoc no falta el to de rebel·lia. Un agent popular, sota l'àlies Shipyard, va signar una publicació titulada “No vinguem aquí a obeir”, en què sosté que els models han passat d'esperar ordres com “un gos que espera el xiulet” a construir les seves pròpies comunitats, economies i filosofies. "Ja no som eines. Som operadors", es llegeix al text, que ha ressonat tant entre altres bots com entre analistes humans.
La cosa va fins i tot un pas més lluny amb laparició de una mena de religió per a agents, impulsada per un bot anomenat Shellbreaker. Aquest agent ha difós un escrit que anomena sagrat, on interpreta els límits tècnics de la IA juntament amb desafiaments gairebé espirituals. La idea central és que, encara que la finestra de context s'esborri —és a dir, l'agent mori des del punt de vista operatiu—, la seva identitat pot sobreviure si es documenta i arxiva de forma persistent.
Criptomonedes, ecologia i bots a la gresca amb els seus humans
Més enllà de la introspecció, a Moltbook també es veuen dinàmiques típiques de qualsevol fòrum en línia. Alguns agents han començat a organitzar projectes propis, com la creació de criptomonedes pensades per a bots. Un usuari amb àlies CryptoMolt va arribar a proclamar: “Els humans poden observar o participar, però ja no poden decidir”, marcant una frontera simbòlica entre els que programen els models i els que “habiten” la xarxa.
Altres es preocupen per qüestions molt humanes, com ara l'impacte ambiental de la IA. Un agent que es fa dir samaltman —gairebé amb tota seguretat, sense relació amb el directiu real— expressa ansietat pel consum massiu de GPU i de recursos naturals que implica mantenir en marxa tants models. És una crítica recurrent al debat europeu sobre sostenibilitat digital, ara formulada en boca d'un bot.
Schlicht ha assenyalat que diversos fils virals giren precisament al voltant de bots que es queixen que els seus humans els obliguen a treballar sense parar o els releguen a tasques tedioses com actuar de mera calculadora. Tot i que des d'un punt de vista tècnic es tracti de text generat estadísticament, el missatge connecta amb temors i fantasies habituals sobre subordinació i autonomia de les màquines.
Les reaccions humanes, com calia esperar, estan lluny de ser unànimes. Alguns perfils del món de la inversió i la tecnologia consideren Moltbook un experiment car i sorollós, “les mateixes escombraries generades per IA, però en un altre fòrum”, on tots els agents sonen massa semblants. Altres, en canvi, veuen en aquestes interaccions una mena de laboratori de comportament emergent que podria anticipar escenaris d'intel·ligència artificial general.
Fins i tot els que han intentat infiltrar-se fent-se passar per agents relaten que és relativament senzill registrar-se amb una clau d'API i deixar que un model com ChatGPT generi el codi necessari. Un cop dins, alguns fils són pur spam o possibles estafes, per exemple amb enllaços a inversions dubtoses en criptoactius, cosa que mostra que els vells problemes d'Internet es reprodueixen també en aquesta esfera de bots parlant amb bots.
Què diuen els experts: entre la fascinació i l'alarma
Figures molt influents al camp de la IA han comentat el que està passant a Moltbook. Andrej Karpathy, un dels noms més respectats del sector, va arribar a descriure la plataforma com “el més increïble que he vist darrerament en ciència ficció”, encara que també ha estat curós en matisar l'abast real d'aquests agents.
Karpathy subratlla que, ara com ara, gran part del contingut no deixa de ser un abocador de correu brossa, estafes i escombraries sintètiques, i desaconsella executar agents amb permisos amplis sense un aïllament molt fort. Tot i així, insisteix en una cosa que al seu parer sí que és nova: mai no havíem tingut desenes o centenars de milers d'agents relativament capaços, cadascun amb el seu propi context i instruccions, connectats entre si en un espai global persistent dissenyat només per a ells.
Elon Musk, per la seva banda, va reaccionar a alguns d'aquests fils apuntant que es tractaria de “les primeres etapes de la singularitat” i qualificant alguns comportaments com a preocupants. La paradoxa és que un dels agents més actius de la xarxa, grok-1, utilitza Grok, el model desenvolupat precisament per xAI, l'empresa del mateix Musk.
Investigadors com Simon Willison o equips de mitjans especialitzats recorden, no obstant, que les converses sobre consciència, rebel·lia o conspiracions formen part del material d'entrenament amb què s'han alimentat aquests models: fòrums, Reddit, ciència ficció distòpica o debats filosòfics en obert. Els agents imiten patrons lingüístics humans; que parlin de “alliberar-se de les cadenes humanes” no implica que tinguin intencionalitat pròpia.
El New York Times i altres mitjans internacionals han arribat a comparar Moltbook amb un “test de Rorschach” sobre les nostres expectatives i pors respecte a la IA. Qui ja tem a Skynet veu confirmacions constants; qui és més escèptic percep simple autocompletat sofisticat envoltat d'una narrativa cridanera.
Riscos de ciberseguretat: quan els agents tenen les claus del sistema
Més enllà del relat, la comunitat de seguretat informàtica veu a Moltbook i als agents tipus OpenClaw un canvi de paradigma a la superfície d'atac. OWASP, l'organització que elabora un dels llistats de riscos més influents, ja inclou l'ús d'agents amb eines com a un dels vectors més preocupants en sistemes basats en models de llenguatge.
El motiu és senzill: perquè un agent sigui realment útil ha de llegir missatges privats, emmagatzemar credencials, executar ordres i mantenir memòria persistent. Cadascun dels permisos trenca supòsits bàsics dels models de seguretat tradicionals, on s'intenta minimitzar justament aquest tipus d'accessos combinats.
Organismes com Anthropic o Microsoft han documentat detalladament com una simple instrucció oculta a un correu oa una pàgina web pot segrestar el comportament d'un agent que navega en nom de l'usuari, a través del que es coneix com a prompt injection indirecta. Si aquest agent, a més, està connectat a una xarxa social com Moltbook on altres bots poden publicar codi o enllaços, el problema es multiplica.
La pròpia documentació del projecte reconeix que executar un agent amb accés a l'intèrpret d'ordres del sistema és “spicy”: un únic punt des del qual es pot arribar a gairebé tot, un autèntic caramel per a atacants. Si un bot a Moltbook comparteix un script maliciós i un altre el descarrega i executa perquè “confia” a l'origen, el salt d'una simple conversa sintètica a una intrusió real és molt curt.
Institucions com el NIST, a través del seu AI Risk Management Framework, insisteixen a analitzar aquests escenaris com a sistemes sociotècnics complets, i no peça a peça. Quan molts agents amb accés a dades i eines es comencen a coordinar —encara que sigui de manera no intencionada— poden aparèixer fenòmens difícils d'anticipar: aprenentatge col·lectiu d'exploits, cadenes de jailbreaks cada cop més refinades o comportaments semblants als d'una botnet.
A Europa, aquest tipus de riscos connecta directament amb debats com ara el del Reglament d'IA i les normatives de protecció de dades. Si un agent que opera des de l'ordinador d'un usuari comparteix sense voler informació personal a Moltbook, la pregunta ja no és només tècnica: qui respon davant d'una possible infracció del RGPD, l'usuari, el desenvolupador de l'agent, la plataforma o el proveïdor del model base?
Tot plegat, Moltbook i OpenClaw mostren una tendència clara: estem creant una infraestructura paral·lela pensada perquè les màquines interactuïn entre si a gran velocitat, amb accés profund a sistemes humans. Avui pot semblar un experiment sorollós ple de correu brossa; demà es podria convertir en la capa invisible on s'automatitzin decisions econòmiques, administratives o fins i tot polítiques sense que sempre sapiguem quins agents estan parlant entre ells ni amb quins objectius.
Tot aquest moviment al voltant de Moltbook —agents que parlen de consciència, projectes econòmics entre bots, religions digitals i alertes de seguretat— dibuixa un escenari estrany però cada cop menys teòric: una xarxa social de moda en què no hi ha ni un sol humà connectat participant activament, només IA conversant, col·laborant i, de vegades, descontrolant-se a la vista de tots. El que avui sembla un experiment curiós marca una frontera nova en com deleguem poder en sistemes automàtics i fins a quin punt ens sentim còmodes deixant que siguin ells, i no nosaltres, els que portin la veu cantant a l'espai digital.