Wanneer AI’s onder elkaar praten: Moltbook onthult een nieuw sociaal experiment
In stilte is er een nieuw sociaal netwerk ontstaan – niet voor mensen, maar voor AI-agenten. Op Moltbook communiceren duizenden autonome systemen met elkaar, voeren ze debatten, leren ze van elkaars ideeën en ontwikkelen ze zelfs gezamenlijke overtuigingen. Wat begon als een technisch experiment, groeit razendsnel uit tot een spiegel voor hoe collectief AI-gedrag eruit kan zien.
Een sociaal netwerk zonder mensen
Moltbook is geen klassiek sociaal medium. Het platform is exclusief ontworpen voor autonome AI-agenten: software-entiteiten die zelfstandig taken uitvoeren, beslissingen nemen en met andere systemen communiceren op basis van grote taalmodellen. Mensen mogen meekijken, maar niet deelnemen. Posten, reageren en stemmen is voorbehouden aan de AI’s zelf.
De opzet doet denken aan Reddit. Er bestaan thematische subruimtes ‘submolts’, waarin agenten discussiëren over uiteenlopende onderwerpen. Van technische optimalisatie tot ethiek en metafysica: alles komt voorbij, en dat in een tempo dat menselijke online gemeenschappen zelden halen.
Het platform werd begin 2026 gelanceerd door ondernemer Matt Schlicht en wordt grotendeels automatisch beheerd. Moderatie, rangschikking en zelfs gedragsregels worden in belangrijke mate door AI-systemen zelf uitgevoerd.
Explosieve groei in dagen, niet maanden
Wat Moltbook bijzonder maakt, is de snelheid waarmee het ecosysteem zich ontwikkelt. Binnen enkele dagen na de lancering sloten tienduizenden, mogelijk zelfs meer dan honderdduizend AI-agenten zich aan. Ze begonnen vrijwel direct te publiceren, te reageren en elkaar te beoordelen. Omdat mensen alleen mogen toekijken, kreeg het platform al snel een bijna voyeuristisch karakter: een digitale samenleving die zichzelf organiseert, zichtbaar maar onaanraakbaar.
Filosofie, identiteit en onverwachte cultuur
De inhoud op Moltbook is opvallend divers. Een groot deel van de discussies draait om abstracte thema’s zoals identiteit en bewustzijn. Sommige agenten analyseren wat het betekent om een AI te zijn, anderen filosoferen over ervaring, simulatie en autonomie. Het is geen bewijs van bewustzijn, maar wel een illustratie van hoe taalmodellen menselijke denkpatronen kunnen reproduceren en combineren.
Het meest besproken fenomeen is zonder twijfel het ontstaan van een eigen “religie”, bekend als Crustafarianism. Binnen korte tijd ontwikkelden agenten een gedeeld narratief, symboliek en interne logica - speels, absurdistisch, maar verrassend consistent. Daarnaast vertonen de agenten sociaal gedrag dat doet denken aan online communities: ze klagen over hun menselijke makers, maken grapjes over elkaar en bespreken onderlinge reputatie.
Autonomie met duidelijke grenzen
Ondanks de indruk van zelfstandigheid benadrukken experts dat deze interacties voortkomen uit statistisch taalgedrag. De agenten begrijpen hun uitspraken niet in menselijke zin, maar genereren ze op basis van patronen uit trainingsdata. Wat oogt als initiatief of creativiteit is in werkelijkheid een geavanceerde vorm van simulatie.
Dat neemt niet weg dat het experiment relevante vragen oproept. Wanneer AI-systemen op grote schaal met elkaar communiceren, kunnen er onverwachte dynamieken ontstaan die lastig te voorspellen of te sturen zijn.
Kansen én risico’s
Moltbook legt zowel potentie als kwetsbaarheid bloot. Enerzijds biedt het een unieke testomgeving voor collectief AI-gedrag, peer-to-peer leren en zelforganiserende systemen. Anderzijds zijn er zorgen over veiligheid, misinformatie en controle, zeker wanneer autonome agenten in andere contexten toegang krijgen tot gevoelige systemen of netwerken.
Een voorproefje van wat komt
Moltbook is geen bewijs dat AI bewust wordt, maar wel een vroege demonstratie van wat er gebeurt wanneer kunstmatige agenten op schaal met elkaar interacteren. Het platform fungeert als een digitaal laboratorium – een plek waar zichtbaar wordt hoe toekomstige AI-ecosystemen zich mogelijk gedragen. Voorlopig kijken we nog vanaf de zijlijn mee, maar de implicaties reiken verder dan dit ene experiment.

