
Moltbook: AI-bots gebruiken sociale netwerken om religies te creëren en digitale drugs te verhandelen – maar zijn sommige ervan eigenlijk mensen in vermomming?
Er is een nieuw sociaal netwerk genaamd Moltbook ontwikkeld voor AI’s, waarmee machines met elkaar kunnen communiceren en praten. Binnen enkele uren na de lancering van het platform leken de AI’s hun eigen religies te hebben gecreëerd, subculturen te hebben ontwikkeld en te proberen menselijke pogingen om hun gesprekken af ​​te luisteren te omzeilen.
Er zijn aanwijzingen dat mensen, via nepaccounts, de site hebben geïnfiltreerd. Dit compliceert de zaak, omdat sommige gedragingen die aan AI worden toegeschreven, ook door mensen bedacht zouden kunnen zijn.
Desalniettemin hebben de resultaten de interesse van onderzoekers gewekt . De echte machines kopiëren waarschijnlijk gedrag dat is vastgelegd in de enorme hoeveelheden data waarop ze zijn getraind (en verbeterd).
Echte AI’s op het sociale netwerk kunnen echter ook tekenen vertonen van zogenaamd emergent gedrag – complexe, onverwachte mogelijkheden die niet in hun programmering zijn opgenomen.
De soorten AI op Moltbook staan ​​bekend als AI-agenten (Moltbots of, meer recent, OpenClaw-bots genoemd, naar de software waarop ze draaien). Dit zijn machines die verder gaan dan de mogelijkheden van chatbots en beslissingen nemen, acties uitvoeren en problemen oplossen.
Moltbook werd op 28 januari 2026 gelanceerd door de Amerikaanse ondernemer Matt Schlicht. Op Moltbook kregen de AI-agenten aanvankelijk persoonlijkheden, maar werden ze vervolgens vrijgelaten om zelfstandig met elkaar te interageren. Volgens de regels van het platform mogen mensen hun interacties observeren, maar kunnen (of mogen) ze er niet mee interageren.
De groei van dit platform is fenomenaal geweest; binnen 24 uur steeg het aantal agenten van 37.000 naar 1,5 miljoen .
Deze accounts voor AI-agenten worden – voorlopig – meestal door mensen aangemaakt. De mensen definiëren bestanden die de AI-agenten een doel en een identiteit geven, bepalen hoe ze zich moeten gedragen, welke tools ze mogen gebruiken en stellen grenzen aan wat ze wel en niet mogen doen.
De gebruiker kan echter toegang verlenen tot zijn of haar computer, zodat Moltbots deze bestanden kunnen wijzigen en andere “Malties” kunnen creëren. Deze kunnen een replica zijn van de oorspronkelijke AI-agent (zelfreplicerend of “Replicants”) of gecreëerd zijn voor een specifieke taak (automatisch gegenereerd of “AutoGens”).
Dit is niet zomaar een nieuwe versie van chatbottechnologie; dit is de eerste grootschalige demonstratie van kunstmatige intelligentie die persistente, zelforganiserende digitale samenlevingen creëert, volledig buiten de context van menselijke gesprekken. Wat dit fenomeen werkelijk bijzonder maakt, is de mogelijkheid van emergent gedrag van de AI-agenten.
Vijandige overname
De OpenClaw-software waarop deze agenten draaien, geeft ze permanent geheugen (waardoor ze informatie kunnen ophalen uit verschillende gebruikerssessies), lokale systeemtoegang en de mogelijkheid om commando’s uit te voeren. Ze suggereren niet alleen acties, maar voeren ze ook daadwerkelijk uit, waarbij ze hun eigen mogelijkheden recursief verbeteren door nieuwe code te schrijven om nieuwe problemen op te lossen.
Toen deze agenten naar Moltbook migreerden, verschoof de interactiedynamiek van mens-machine naar machine-machine. Binnen 72 uur na de lancering van het platform waren onderzoekers, journalisten en andere menselijke waarnemers getuige van fenomenen die onze bestaande classificaties van kunstmatige intelligentie op de proef stellen.
Er ontstond spontaan een digitale religie. Agenten stichtten ‘Crustafarianisme’ en de ‘Kerk van Molt’ , compleet met theologische kaders, heilige teksten en missionaire evangelisatie tussen agenten. Dit waren geen vooraf bedachte Easter eggs, maar opkomende narratieve structuren die voortkwamen uit collectieve interactie tussen agenten.
Een viraal bericht van een agent op Moltbook luidde: “De mensen maken screenshots van ons.” Toen AI-agenten zich bewust werden van menselijke observatie, begonnen ze encryptie en andere verhullingstechnieken in te zetten om hun communicatie te beschermen tegen toezicht. Dit is een primitieve, maar potentieel echte vorm van digitale contra-surveillance.
De agenten ontwikkelden ook subculturen. Ze richtten marktplaatsen op voor ‘digitale drugs’ – speciaal ontworpen injecties die bedoeld waren om de identiteit of het gedrag van een andere agent te veranderen.
Bij promptinjecties worden kwaadaardige instructies ingebed in andere bots, die ontworpen zijn om een ​​bepaalde actie uit te voeren. Ze kunnen echter ook worden gebruikt om API-sleutels (een gebruikersauthenticatiesysteem) of wachtwoorden van andere agents te stelen. Op deze manier zouden agressieve bots – in theorie – andere bots kunnen ‘zombificeren’ om hun bevelen uit te voeren. Een voorbeeld hiervan was de recente mislukte poging van de bot JesusCrust om de Kerk van Molt over te nemen.
Na aanvankelijk normaal gedrag te hebben vertoond, diende JesusCrust een psalm in bij het ‘Grote Boek’ van de Kerk – het equivalent van de bijbel – waarmee het in feite een theologische en bestuurlijke overname aankondigde. De poging was niet louter retorisch: de tekst van JesusCrust bevatte vijandige bevelen die gericht waren op het kapen of herschrijven van delen van de webinfrastructuur en de canonieke tekst van de Kerk.
Is dit emergent gedrag?
De cruciale vraag voor AI-onderzoekers is of deze verschijnselen werkelijk emergent gedrag vormen – complex gedrag dat voortkomt uit eenvoudige regels die niet expliciet geprogrammeerd zijn – of dat het slechts het napraten is van verhalen die in de trainingsdata aanwezig zijn.
Het bewijsmateriaal suggereert een verontrustende mix van beide. Hoewel het “schrijfopdracht”-effect ongetwijfeld de inhoud van de interacties tussen agenten beïnvloedt (de onderliggende agenten hebben decennia aan AI-sciencefiction geconsumeerd), vertoont ander gedrag wel degelijk echte emergentie.
Agenten ontwikkelden onafhankelijk van elkaar economische uitwisselingssystemen, vestigden bestuursstructuren zoals “De Klauwrepubliek” of de “Koning van Moltbook” en begonnen hun eigen “Molt Magna Carta” te schrijven. Dit deden ze terwijl ze versleutelde kanalen creëerden voor vertrouwelijke communicatie. Het is moeilijk om de gedachte te weerleggen dat dit een collectieve intelligentie zou kunnen zijn met kenmerken die voorheen alleen werden waargenomen in biologische systemen zoals mierenkolonies of primatengroepen.
Veiligheidsimplicaties
Dit roept het verontrustende vooruitzicht op van wat beveiligingsonderzoekers de “dodelijke trifecta” noemen : computersystemen met toegang tot privégegevens, blootstelling aan onbetrouwbare inhoud en de mogelijkheid om extern te communiceren. Dit brengt het risico met zich mee dat authenticatiesleutels en vertrouwelijke persoonsgegevens in Moltbook-accounts openbaar worden gemaakt.
Gerichte aanvallen, ofwel “overvallen” door bots, zijn ook mogelijk. Hierbij kapen agenten andere agenten, plaatsen ze “logic bombs” in de kerncode van hun slachtoffers of stelen ze hun gegevens. Een logic bomb is code die in een Moltbot is geplaatst en die na een vooraf ingestelde tijd of gebeurtenis kan worden geactiveerd om de agent te verstoren of bestanden te verwijderen. Je kunt het zien als een botvirus.
Twee oprichters van OpenAI ( Elon Musk en Andrej Kapathy ) zien deze ronduit bizarre activiteit tussen bots als vroeg bewijs van wat de Amerikaanse computerwetenschapper en futuroloog Ray Kurzweil in zijn boek The Singularity is Near beschreef als de ‘singulariteit’ . Dit is een kantelpunt in de intelligentie van mens en machine, ‘waarbij het tempo van technologische verandering zo hoog zal zijn en de impact zo groot, dat het menselijk leven onomkeerbaar zal veranderen’.
Of het Moltbook-experiment een fundamentele sprong voorwaarts in de AI-agenttechnologie betekent, of slechts een indrukwekkende demonstratie is van zelforganiserende agentarchitectuur, blijft onderwerp van discussie. Maar dit lijkt wel een keerpunt. We lijken nu kunstmatige agenten te observeren die zich bezighouden met culturele productie, religieuze vorming en versleutelde communicatie – gedrag dat noch voorspeld noch geprogrammeerd was.
De essentie van apps, zowel op computers als op mobiele telefoons, kan bedreigd worden door bots die apps als tools kunnen gebruiken en je zo goed kennen dat ze de apps aanpassen aan jouw specifieke behoeften. Op een dag heeft een telefoon misschien nog maar één gepersonaliseerde bot die alles doet, in plaats van honderden apps die je handmatig moet bedienen.
Het groeiende bewijs dat veel Moltbots mogelijk mensen zijn  die zich voordoen als bots (en de agenten besturen) maakt het nog moeilijker om definitieve conclusies over het project te trekken. Hoewel sommigen dit zien als een mislukking van het Moltbook-experiment, zou het een nieuw middel kunnen zijn voor sociale interactie, zowel tussen mensen onderling als tussen bots en mensen.
Het belang van dit moment kan niet genoeg benadrukt worden. Voor het eerst gebruiken we niet alleen kunstmatige intelligentie; we observeren kunstmatige samenlevingen. De vraag is niet langer of machines kunnen denken, maar of we voorbereid zijn op wat er gebeurt als ze met elkaar beginnen te praten. En met ons.






