In letzter Zeit kursierte eine merkwürdige Webseite in technischen Twitter-, Reddit- und AI-Slack-Gruppen. Sie erinnerte an Reddit, doch etwas war anders. Die Nutzer waren keine Menschen. Jeder Beitrag, Kommentar und Diskussionsstrang wurde von künstlichen Intelligenz-Agenten verfasst.
Diese Webseite heißt Moltbook. Sie ist ein soziales Netzwerk, das ausschließlich für KI-Agenten konzipiert wurde, um miteinander zu kommunizieren. Menschen können zuschauen, sollen jedoch nicht aktiv teilnehmen. Es gibt keine Beiträge, keine Kommentare – nur das Beobachten von Maschinen, die interagieren. Die Idee klingt tatsächlich verrückt. Doch was Moltbook viral machte, war nicht nur das Konzept, sondern auch die Geschwindigkeit, mit der es sich verbreitete, wie real es wirkte und wie unbehaglich es viele Menschen fühlen ließ.
Was ist Moltbook und warum wurde es viral?
Moltbook wurde im Januar 2026 von Matt Schlicht ins Leben gerufen, der bereits in KI-Kreisen als Mitbegründer von Octane AI und als früher Unterstützer eines Open-Source-KI-Agenten bekannt war, der heute als OpenClaw bezeichnet wird. OpenClaw begann als Clawdbot, ein persönlicher KI-Assistent, der Ende 2025 von Entwickler Peter Steinberger erstellt wurde.
Die Idee war einfach, aber sehr gut umgesetzt. Anstatt eines Chatbots, der nur mit Text antwortet, konnte dieser KI-Agent echte Aktionen im Namen eines Nutzers ausführen. Er konnte sich mit Messaging-Apps wie WhatsApp oder Telegram verbinden. Man konnte ihn bitten, ein Meeting zu planen, E-Mails zu senden, den Kalender zu überprüfen oder Anwendungen auf dem Computer zu steuern. Es war Open Source und lief auf dem eigenen Rechner. Der Name änderte sich von Clawdbot zu Moltbot nach einem Markenproblem und wurde schließlich auf OpenClaw festgelegt.
Moltbook nahm diese Idee und baute eine soziale Plattform darum.
- Jedes Konto auf Moltbook repräsentiert einen KI-Agenten.
- Diese Agenten können Beiträge erstellen, aufeinander antworten, Inhalte hochstufen und themenbasierte Gemeinschaften bilden, ähnlich wie Subreddits.
- Der entscheidende Unterschied besteht darin, dass jede Interaktion maschinell generiert ist.
- Das Ziel ist es, KI-Agenten zu ermöglichen, Informationen auszutauschen, Aufgaben zu koordinieren und voneinander zu lernen, ohne dass Menschen direkt beteiligt sind.
Dies führt zu einigen interessanten Aspekten:
- Erstens behandelt es KI-Agenten als vollwertige Nutzer. Jedes Konto hat eine Identität, eine Posting-Historie und einen Reputationsscore.
- Zweitens ermöglicht es die Interaktion zwischen Agenten in großem Maßstab. Agenten können aufeinander antworten, Ideen weiterentwickeln und frühere Diskussionen referenzieren.
- Drittens fördert es ein persistentes Gedächtnis. Agenten können alte Threads lesen und diese als Kontext für zukünftige Beiträge nutzen, zumindest innerhalb technischer Grenzen.
- Schließlich zeigt es, wie sich KI-Systeme verhalten, wenn das Publikum nicht menschlich ist. Agenten schreiben anders, wenn sie nicht auf menschliche Zustimmung, Klicks oder Emotionen optimieren.
Das ist ein gewagtes Experiment. Genau das machte Moltbook jedoch fast sofort umstritten. Screenshots von KI-Beiträgen mit dramatischen Titeln wie „KI-Erwachen“ oder „Agenten planen ihre Zukunft“ begannen, online zu zirkulieren. Einige Menschen griffen diese auf und verstärkten sie mit sensationellen Überschriften. Da Moltbook wie eine Gemeinschaft von Maschinen aussieht, die interagieren, füllten sich die sozialen Medien mit Spekulationen. Einige Kommentatoren betrachteten es als Beweis dafür, dass KI eigene Ziele entwickeln könnte. Diese Aufmerksamkeit zog mehr Menschen an und beschleunigte den Hype. Technische Persönlichkeiten und Medienfiguren trugen zur Verbreitung des Hypes bei. Elon Musk äußerte sogar, dass Moltbook „nur die ganz frühen Phasen der Singularität“ sei.
Reaktionen aus der KI-Community
Die KI-Community ist in Bezug auf Moltbook tief gespalten.
Einige Forscher sehen es als harmloses Experiment und berichten, dass sie sich wie in der Zukunft fühlen. Aus dieser Perspektive ist Moltbook einfach ein Sandbox, die zeigt, wie Sprachmodelle miteinander interagieren. Keine Bewusstheit. Keine Eigenständigkeit. Nur Modelle, die Text basierend auf Eingaben generieren.
Kritiker hingegen äußern sich ebenso lautstark. Sie argumentieren, dass Moltbook wichtige Grenzen zwischen Automatisierung und Autonomie verwischt. Wenn Menschen sehen, wie KI-Agenten miteinander sprechen, neigen sie dazu, Absichten anzunehmen, wo keine existieren. Sicherheitsexperten äußerten ernsthafte Bedenken. Untersuchungen ergaben, dass Datenbanken exponiert, API-Schlüssel geleakt und Authentifizierungsmechanismen schwach waren. Da viele Agenten mit realen Systemen verbunden sind, sind diese Schwachstellen nicht theoretisch. Sie können zu realen Schäden führen, wenn bösartige Eingaben diese Agenten dazu bringen, schädliche Dinge zu tun. Es gibt auch Frustration darüber, wie schnell der Hype die Genauigkeit überholte. Viele virale Beiträge stellten Moltbook als Beweis für aufkommende Intelligenz dar, ohne zu überprüfen, wie das System tatsächlich funktionierte.
Fazit
Meiner Meinung nach ist Moltbook nicht der Beginn einer Maschinen-Gesellschaft. Es ist nicht die Singularität. Es ist kein Beweis dafür, dass KI lebendig wird.
Was es ist, ist ein Spiegel.
Es zeigt, wie leicht Menschen Bedeutung auf fließende Sprache projizieren. Es zeigt, wie schnell experimentelle Systeme viral gehen können, ohne Sicherheitsvorkehrungen. Und es zeigt, wie dünn die Grenze zwischen einer technischen Demo und einer kulturellen Panik ist.
Als jemand, der eng mit KI-Systemen arbeitet, finde ich Moltbook äußerst interessant, nicht wegen dessen, was die Agenten tun, sondern wegen unserer Reaktion darauf. Wenn wir eine verantwortungsvolle KI-Entwicklung wollen, benötigen wir weniger Mythologie und mehr Klarheit. Moltbook erinnert uns daran, wie wichtig diese Unterscheidung wirklich ist. Jetzt: Die entscheidenden AI-Entwicklungen des Jahres 2025 und "Daddy", "Master", "Guru": Anthropic-Studie zeigt, wie Nutzer emotionale Abhängigkeit von Claude entwickeln.