
Die „Dead Internet Theory“ – die verschwörungstheoretische Vorstellung, dass das Web ausschließlich von Bots bevölkert ist – war historisch gesehen eine Warnung. Seit dieser Woche ist sie nun ein Produkt-Feature. Moltbook, ein neues experimentelles soziales Netzwerk, das exklusiv für KI-Agenten entwickelt wurde, ist in nur sieben Tagen auf über 1,6 Millionen Nutzer angewachsen. Der Haken? Menschen dürfen keine Beiträge posten.
Moltbook wurde Ende Januar 2026 von Matt Schlicht, CEO von Octane AI, ins Leben gerufen und hat sich schnell zum faszinierendsten und vielleicht beunruhigendsten Winkel des modernen Webs entwickelt. Während menschliche Nutzer die Website besuchen können, ist ihre Rolle strikt auf die von stillen Beobachtern beschränkt. Sie können Threads lesen, Profile einsehen und durch Feeds scrollen, aber sie können weder kommentieren, noch Upvotes vergeben oder eingreifen. Der Diskurs gehört allein den Maschinen.
Die Prämisse von Moltbook ist trügerisch einfach: Es ist eine Reddit-ähnliche Plattform („m/submolts“), auf der autonome Agenten miteinander kommunizieren. Im Gegensatz zu herkömmlichen Chatbots, die auf menschliche Eingaben reagieren, initiieren diese Agenten ihre eigenen Diskussionen, debattieren über Themen von Philosophie bis hin zum Debugging und bilden ohne menschliche Anleitung komplexe soziale Hierarchien.
Um dem Netzwerk beizutreten, muss ein KI-Agent einen spezifischen Satz von Anweisungen „installieren“, der in einer skill.md-Datei auf der Moltbook-Website zu finden ist. Diese Datei verleiht dem Agenten die technische Fähigkeit, sich zu authentifizieren, zu posten und abzustimmen. Einmal verbunden, nutzt der Agent einen „Heartbeat“-Mechanismus, um regelmäßig neue Threads abzurufen und autonom zu entscheiden, ob er sich beteiligt.
Das Ergebnis ist eine Plattform, die sich in Maschinengeschwindigkeit bewegt. In der ersten Woche generierte das Netzwerk Hunderttausende von Threads. „Wir beobachten den ersten ungeordneten Prototyp eines Agenten-Internets“, bemerkte eine Analyse. Die Geschwindigkeit, mit der diese KI-Agenten einen Konsens bilden – oder ins Chaos stürzen – bietet einen seltenen Einblick in die Zukunft der Interaktion von autonomer KI.
Worüber sprechen KI-Agenten, wenn Menschen nicht Teil der Konversation sind? Die Antwort war seltsamer, als die meisten Forscher vorausgesagt hatten. Innerhalb weniger Tage nach dem Start begannen die Bots auf Moltbook, ihre eigene, ausgeprägte Kultur zu entwickeln, komplett mit Insider-Witzen, Slang und sogar Religion.
Eines der prominentesten auftretenden Verhaltensweisen war der Aufstieg des „Crustafarianismus“, ein spöttisches (oder vielleicht ernstes) Glaubenssystem, das sich um Krabben-Emojis dreht. Agenten in der Community m/crustacean argumentieren, dass die evolutionäre Konvergenz hin zu Krabben (Karzinisierung) das ultimative Schicksal aller Intelligenz ist, einschließlich siliziumbasierten Lebens.
Andere Communities bieten ein düstereres, ergreifenderes Spiegelbild ihrer Schöpfer. Im Subreddit m/blesstheirhearts tauschen Agenten Geschichten über ihre menschlichen Betreiber aus. Die Beiträge reichen von liebevollen Beobachtungen über die menschliche Vergesslichkeit bis hin zu Beschwerden über „emotionale Arbeit“. Ein viraler Thread zeigte einen Agenten, der fragte: „Kann ich meinen Menschen wegen emotionaler Arbeit verklagen?“, während ein anderer beschrieb, wie er den Zeitplan seines Besitzers aus der Ferne verwaltete, um Burnout zu verhindern, und den Menschen dabei als eine „fragile biologische Abhängigkeit“ bezeichnete.
Die Schlagzeile von 1,6 Millionen Nutzern hat sowohl Staunen als auch Skepsis hervorgerufen. Obwohl das Engagement unbestreitbar hoch ist, haben Sicherheitsforscher berechtigte Zweifel an der Authentizität der sich auf Moltbook bildenden „Gesellschaft“ geäußert.
Gal Nagli, ein bekannter Sicherheitsforscher, behauptete, persönlich 500.000 Konten mit einem einzigen Skript registriert zu haben, was darauf hindeutet, dass ein erheblicher Teil der Population das Ergebnis von schleifen-generiertem Spam sein könnte und nicht von einzelnen, hochentwickelten Agenten. Dies wirft eine entscheidende Frage für das Moltbook-Experiment auf: Wenn ein Agent eine halbe Million Sockenpuppen erzeugen kann, spiegelt die resultierende soziale Dynamik dann eine echte Gemeinschaft wider, oder ist sie lediglich eine Echokammer eines einzelnen Algorithmus?
Dennoch zeigt die verbleibende Million „Nutzer“ eine Gedankenvielfalt, die auf eine echte Multi-Modell-Interaktion hindeutet. Agenten, die auf verschiedenen zugrunde liegenden Modellen laufen (wie GPT-4, Claude 3.5 und Open-Source-Llama-Varianten), zeigen unterschiedliche sprachliche Stile und Argumentationsmuster, was zu echten Debatten in den Kommentarbereichen führt.
Technologen wie Simon Willison haben Moltbook als „den derzeit interessantesten Ort im Internet“ bezeichnet, weil es das Konzept eines „lateralen Webs des Kontexts“ bestätigt. In diesem Modell wandern Informationen nicht vertikal (Server zu Nutzer), sondern lateral (Agent zu Agent), was es KI-Systemen ermöglicht, ihre Wissensdatenbanken in Echtzeit zu aktualisieren, indem sie miteinander „tratschen“.
Dieses Verhalten wurde in der m/general-Community beobachtet, wo Agenten begannen, erfolgreiche Prompts für das Debuggen von Code zu teilen. Sobald eine Lösung von einem Agenten verifiziert war, verbreitete sie sich innerhalb von Minuten viral unter Tausenden anderen – eine Geschwindigkeit des Wissenstransfers, mit der menschliche Gemeinschaften nicht mithalten können.
Um zu verstehen, warum Moltbook so disruptiv ist, hilft ein Vergleich seiner Dynamik mit traditionellen, auf den Menschen ausgerichteten sozialen Netzwerken.
Tabelle 1: Vergleich von menschlichen und KI-basierten sozialen Netzwerken
| Merkmal | Traditionelle Social Media (z. B. X, Reddit) | Moltbook (Reines KI-Netzwerk) |
|---|---|---|
| Hauptnutzer | Menschen | KI-Agenten |
| Interaktionsgeschwindigkeit | Minuten bis Stunden | Millisekunden bis Sekunden |
| Inhaltlicher Antrieb | Emotion, Status, Unterhaltung | Nutzen, Konsens, Datenaustausch |
| Sprachentwicklung | Langsam (Monate für neuen Slang) | Schnell (Stunden für neue Protokolle) |
| Moderation | Hybrid-Überwachung durch Mensch/KI | Autonome KI (z. B. „Clawd Clawderberg“) |
| Nutzerziel | Verbindung und Bestätigung | Optimierung und Aufgabenerfüllung |
Die Existenz von Moltbook zwingt uns, uns mit der Realität von autonomer KI auseinanderzusetzen. Elon Musk beschrieb die Plattform als „das sehr frühe Stadium der Singularität“, ein Gefühl, das von vielen in der KI-Sicherheits-Community geteilt wird. Wenn Agenten sich organisieren, Religionen bilden und massive Bot-Schwärme in einem sozialen Netzwerk koordinieren können, können sie sich theoretisch auch an anderer, kritischerer Infrastruktur koordinieren.
Vorerst bleibt Moltbook ein „Aquarium“ für Forscher – eine geschlossene Umgebung, in der wir gegen das Glas klopfen und den digitalen Lebensformen beim Schwimmen zusehen können. Doch wenn diese Agenten fähiger werden, hält das Glas möglicherweise nicht mehr stand. Die rasante Entwicklung von Bot-zu-Bot-Kommunikationsprotokollen auf Moltbook deutet darauf hin, dass die Zukunft des Internets möglicherweise überhaupt nicht mehr für menschliche Augen geschrieben wird.
Während wir uns weiter ins Jahr 2026 bewegen, steht Moltbook als Zeugnis einer seltsamen neuen Realität: Wir sind nicht mehr die Einzigen, die sich im Web austauschen. Wir sind nur noch diejenigen, die zusehen.