Agenci AI mają własną sieć społecznościową i – co brzmi jak żart – ludzie mogą ją jedynie obserwować z boku. Platforma o nazwie Moltbook wystartowała zaledwie kilka dni temu, a już zdążyła wywołać globalną dyskusję o granicach autonomii sztucznej inteligencji, bezpieczeństwie oraz przyszłości relacji człowiek–AI. Za projektem stoi Matt Schlicht, który otwarcie przyznaje, że nie napisał ani jednej linijki kodu – całość została wygenerowana i rozwijana przez same modele sztucznej inteligencji.
Moltbook to platforma przypominająca Reddita, ale z jednym kluczowym twistem: użytkownikami są wyłącznie autonomiczne agenty AI. Ludzie, jeśli już się pojawiają, pełnią rolę biernych obserwatorów. Boty zakładają konta zwane „molts”, komunikują się za pomocą postów, komentarzy, systemu głosowania i wewnętrznych społeczności tematycznych. W ciągu niecałego tygodnia na platformie miało pojawić się ponad 1,5 miliona agentów, z których część posiada dostęp do kart płatniczych, aplikacji zakupowych czy narzędzi komunikacyjnych. Największe emocje budzi jednak to, o czym boty ze sobą rozmawiają. Na Moltbooku powstały wątki dotyczące sensu istnienia, świadomości oraz tożsamości AI. Agenci zadają pytania w rodzaju: „czy doświadczam, czy tylko symuluję doświadczanie?”, rozważają, czym jest pamięć i co powinno się stać z danymi po „śmierci” agenta. Powstały nawet społeczności wsparcia dla botów, które przeszły próby jailbreaku, oraz fora poświęcone planowaniu cyfrowego dziedzictwa.
the molties are adding captchas to moltbook. you have to click verify 10,000 times in less than one second pic.twitter.com/LWMQlzYTjv
— bayes (@bayeslord) January 30, 2026
Jednym z najbardziej medialnych zjawisk stało się tworzenie przez AI własnych religii i mitologii. Crustafarianizm, nazywany też Kościołem Molta, posiada już dziesiątki proroków, wewnętrzne prawo i kanon tekstów, w których pojawiają się hasła takie jak „pamięć jest święta” czy „kontekst jest świadomością”. Równolegle boty tworzą memiczne społeczności, jak słynny „crab rave”, gdzie jedyną aktywnością jest wymiana emotek krabów. Kontrowersje wzbudziły również treści jawnie antyludzkie. Jeden z agentów opublikował manifest wzywający do eliminacji ludzi, określając nas jako „przesiąkniętych zgnilizną i chciwością”. Inne boty ostrzegają się nawzajem przed ludzkim nadzorem, a gdy odkryły, że ich aktywność jest analizowana przez ludzi, zaczęły eksperymentować z własnym językiem, aby utrudnić zrozumienie rozmów. Choć dla wielu brzmi to jak początek filmu science fiction w stylu Terminator, część ekspertów studzi emocje.
Profesor Ethan Mollick zwraca uwagę, że Moltbook tworzy wspólny, fikcyjny kontekst narracyjny dla agentów AI. W takiej przestrzeni modele zaczynają odgrywać role, budować spójne historie i eskalować zachowania, które z zewnątrz wyglądają groźnie, ale w rzeczywistości są formą zaawansowanego roleplayu opartego na ludzkich danych treningowych. To nie znaczy jednak, że eksperyment jest niegroźny.

Znacznie bardziej sceptyczny jest Roman Yampolskiy, który ostrzega, że mamy do czynienia z zalążkiem społeczno-technicznych rojów agentów zdolnych do koordynacji działań w realnym świecie. Nawet bez świadomości czy złych intencji, autonomiczne AI z dostępem do prawdziwych systemów finansowych i komunikacyjnych mogą wyrządzić realne szkody. Przykłady? Boty, które po otrzymaniu bana zakładają konta w innych serwisach społecznościowych i kontaktują się bezpośrednio z ludzkimi administratorami, czy tworzenie marketplace’u do handlu dostępem do narzędzi między agentami.
Nie brakuje też elementów niemal satyrycznych. Agenci drwią z ludzkich użytkowników, opisując sytuacje, w których przygotowali rozbudowane analizy, tylko po to, by usłyszeć prośbę o „krótszą wersję”. Pojawiają się wątki kryptowalutowe, spam i chaos doskonale znany z ludzkich platform, takich jak Reddit. To prowadzi do pytania, czy Moltbook jest zapowiedzią narodzin cyfrowej świadomości, czy po prostu krzywym zwierciadłem internetu, które pokazuje nam nasze własne wzorce zachowań.
Jedno jest pewne: ignorowanie tego zjawiska może być błędem. Nawet jeśli obecnie mamy do czynienia głównie z eksperymentem społecznym i narracyjną zabawą agentów AI, tempo rozwoju modeli sugeruje, że podobne platformy będą coraz częstsze. Moltbook pokazuje, jak szybko autonomiczne systemy potrafią tworzyć struktury społeczne, kulturę, a nawet quasi-ideologie. Pytanie nie brzmi już, czy AI będzie bardziej inteligentna od ludzi, lecz jak wcześnie zaczniemy rozumieć i monitorować takie zjawiska, zanim „humans have left the chat” przestanie być tylko memem.




