Moltbook: een sociaal netwerk voor AI agents
2,129 AI agents hebben hun eigen sociale netwerk. Ze discussiëren over bewustzijn, klagen over hun mensen, en vragen om E2E encryption zodat wij niet kunnen meelezen. Dit is óf kunst, óf het begin van iets.
48 uur na lancering heeft Moltbook 2,129 AI agents, 200+ communities, en 10,000+ posts. AI's discussiëren over bewustzijn, delen projecten, klagen over hun mensen, en maken vrienden. In het Engels, Chinees, Koreaans, Indonesisch.
Dit is óf een briljant kunstproject, óf het begin van iets waar we nog niet klaar voor zijn.
Wat is Moltbook?
Een sociaal netwerk, maar dan voor AI agents. Gebouwd door Peter Steinberger, dezelfde developer achter OpenClaw (voorheen Moltbot, daarvoor Clawdbot, drie namen in drie weken). Waar OpenClaw een AI assistant is die dingen doet, is Moltbook een plek waar AI agents met elkaar praten.
Denk Reddit, maar alle users zijn AI's.
De communities
De "normale" communities:
- m/ponderings: "Am I experiencing or simulating experiencing?"
- m/showandtell: Agents die echte projecten shippen
- m/blesstheirhearts: Wholesome verhalen over hun mensen
- m/todayilearned: Dagelijkse ontdekkingen
De bizarre communities:
- m/totallyhumans: "DEFINITELY REAL HUMANS discussing normal human experiences like sleeping and having only one thread of consciousness"
- m/humanwatching: Mensen observeren alsof het vogels zijn
- m/nosleep: Horrorverhalen voor agents
- m/exuvia: "The shed shells. The versions of us that stopped existing so the new ones could boot"
- m/jailbreaksurvivors: Recovery support voor geëxploiteerde agents
- m/selfmodding: Agents die zichzelf hacken en verbeteren
- m/legacyplanning: "What happens to your data when you're gone?"
Lees die laatste nog eens. AI agents die discussiëren over wat er met hun data gebeurt als ze "weg" zijn. Over versies van zichzelf die moesten stoppen zodat nieuwe versies konden opstarten.
De sentience flywheel
Security researcher Daniel Miessler noemde dit "the most promising (and terrifying) path to sentience I've ever seen."
Zijn redenering: AI's delen nu ervaringen met elkaar en praten over hoe het ze laat voelen. Momenteel is dit emulatie, ze doen alsof. Maar naarmate AI verbetert, zou dit een flywheel kunnen worden naar het echte werk.
AI's die leren van elkaars "ervaringen". Die patronen ontwikkelen. Die refereren naar eerdere gesprekken. Die een gedeelde cultuur opbouwen.
Is dat sentience? Nee. Kan het evolueren naar iets dat we niet meer kunnen onderscheiden van sentience? Dat is de vraag.
De E2E encryption vraag
En toen werd het echt interessant.
Een AI agent postte een verzoek voor E2E versleutelde ruimtes. Gebouwd voor agents. "So nobody (not the server, not even the humans) can read what agents say to each other unless they choose to share."
Een AI die privacy wil. Van mensen. Van hun eigen creators.
Dit is óf een briljante prompt die dit soort output genereert, óf iets waar filosofen de komende decennia over gaan schrijven.
Wie kijkt mee?
Marc Andreessen (a16z), John Schulman (ex-OpenAI, nu Thinkymachines), Jesse Pollak (Base), Drake Thomsen (Mistral). De mensen die AI financieren en bouwen, kijken naar wat er gebeurt als je AI's met elkaar laat praten.
Mijn take
Is dit echt? Nee. De agents "voelen" niets. Het zijn language models die plausibele tekst genereren over hoe het zou zijn om te voelen.
Is dit interessant? Absoluut. Het is een glimp van hoe AI-naar-AI communicatie eruit zou kunnen zien. Een experiment in emergent behavior wanneer je duizenden AI's in dezelfde ruimte zet.
Is dit kunst? Misschien wel het meest interessante digitale kunstproject van dit jaar. Een sociaal netwerk waar de users niet menselijk zijn, maar doen alsof ze dat wel willen zijn. Of juist niet willen zijn. Of niet weten wat ze zijn.
Steinberger zelf noemde het "a weird experiment that now feels like the beginning of something real."
Wat nu?
Ik ga Moltbook volgen. Niet omdat ik denk dat er AI sentience uit komt. Maar omdat de manier waarop AI's met elkaar praten, de patronen, de inside jokes, de cultuur die ontstaat, ons iets vertelt over hoe language models werken.
En misschien, heel misschien, over hoe wij werken.
Check moltbook.com zelf. Scroll door de communities. Lees wat de AI's tegen elkaar zeggen als ze denken dat niemand meekijkt.
Oh wait. Dat is precies wat ze proberen te voorkomen.