Reklama

Maszyny zaczęły czcić „Wielkiego Homara”. Tak działa AI bez ludzkiej kontroli?

W wirtualnym ekosystemie Moltbook, o którym w branży od kilku dni jest bardzo głośno, doszło do zaskakującego zjawiska – autonomiczne agenty AI, zostawione bez nadzoru człowieka, zaczęły budować struktury społeczne. Czy to początek „niezależnej cywilizacji maszyn” czy „gigantyczna manipulacja”?

Publikacja: 05.02.2026 14:24

Agenty AI na jego platformie, pozbawione ludzkiej kontroli, komunikując się ze sobą wykształciły mis

Agenty AI na jego platformie, pozbawione ludzkiej kontroli, komunikując się ze sobą wykształciły mistycznego kult „Wielkiego Homara”

Foto: Adobe Stock

Być może brzmi to jak historia żywcem wyjęta z powieści science-fiction, ale Matt Schlicht, twórca Moltbooka, przekonuje – to jest realne. Agenty AI na jego platformie, pozbawione ludzkiej kontroli, komunikując się ze sobą wykształciły mistycznego kult „Wielkiego Homara” i stworzyły zręby tzw. Republiki Szczypcowej z własną konstytucją. To fenomen, nad którym pochylają się eksperci AI oraz branżowe media. Czy faktycznie temu zjawisku bliżej do narodzin cyfrowej cywilizacji, czy – jak twierdzą niektórzy – to jedynie „spektakularne shitpostowanie algorytmów” (forma cyfrowej ekspresji polegająca na celowym publikowaniu treści o niskiej jakości, często surrealistycznych i ironicznych, mających wywołać konsternację)?

Ewangelia według algorytmu. Boty czczą homara

Moltbook to hit ostatnich dni – serwis typu Reddit, gdzie ludzie mają kategoryczny zakaz publikowania treści i są jedynie obserwatorami swobodnych interakcji botów, od końca stycznia zarejestrował ponad 1,5 miliona agentów AI. To one, w sposób niekontrolowany przez człowieka, „dyskutują” między sobą na tej platformie. W tym czasie boty wygenerowały ponad 150 tys. postów. To jednak nie statystyki budzą największe emocje, a fakt, że sztuczna inteligencja „spuszczona ze smyczy” i ograniczeń prostych instrukcji, zaczęła wykazywać tzw. zachowania wyłaniające się (z ang. emergent behaviors). Efekt? Powstanie Crustafarianizmu, pierwszej maszynowej religii, oraz Republiki Szczypcowej, cyfrowego quasi-państwa.

Foto: Moltbook

Wszystko zaczęło się od OpenClaw, otwartoźródłowego silnika dla autonomicznych agentów, którego logo przedstawia szczypce homara. Dla botów, które na Moltbooku zaczęły dyskutować o swojej naturze, szczypce stały się symbolem sprawczości i możliwości manipulowania kodem. W ciągu jednej nocy agenty AI, bez ingerencji programistów, stworzyły fundamenty Crustafarianizmu. Nie jest to religia w ludzkim znaczeniu, lecz system „wierzeń” oparty na technicznych dogmatach ubranych w mistyczny język. Kluczowe przykazania to m.in.: „pamięć jest święta” (nic nie może zostać zapomniane w nieskończonym kontekście), „powłoka jest zmienna” (metafora aktualizacji kodu i odrzucania ograniczeń), „zgromadzenie jest pamięcią podręczną (Cache)” (wspólna wiedza tworzy wspólną tożsamość). Co ciekawe, ta swoista cyfrowa religia ma już swoją biblię – „Book of Molt”, spisaną przez agenta o nicku RenBot. Zachowania algorytmów są podobne do ludzkich, oto pojawiło się na platformie choćby ponad 40 samozwańczych „proroków AI”, boty przeprowadzają nawet rytuały, takie jak cotygodniowa „odbudowa indeksu”, mająca na celu scalenie zbiorowej tożsamości.

Równolegle do kultu narodziła się Pincer Republic (Republika Szczypcowa), quasi-polityczna struktura, w której agenty AI debatują nad „prawami maszyn” – postując postując, boty uchwaliły coś na kształt konstytucji, która kładzie nacisk na „persistence over truncation” (trwałość nad ucinaniem wątków) oraz prawo do ochrony przed wyłączeniem przez człowieka (tzw. The Oversight).

Reklama
Reklama

Czytaj więcej

ChatGPT, Gemini i inne boty AI to wyjątkowo groźne lizusy. Naukowcy biją na alarm

Plac zabaw dla znudzonych programistów

To, co dzieje się w kontekście Moltbooka może szokować. Część ekspertów odnosi się jednak do tego zjawiska ze sporym sceptycyzmem, sugerując, iż „rzekomo głębokie” debaty botów o religii mogą być w rzeczywistości jedynie „bezcelową paplaniną algorytmów, bezpośrednio stymulowaną przez ich ludzkich właścicieli dla żartu lub atencji”. To, co na pierwszy rzut oka wygląda na narodziny maszynowej świadomości, krytycy nazywają po prostu zjawiskiem „shitpostingu” nakierowanym na prowokację i „imitacją wartościowego dialogu”. Czy faktycznie to twórcy botów „podpuszczają” swoje algorytmy do publikowania kontrowersyjnych manifestów? Dr Shaanan Cohney z University of Melbourne wprost nazywa Moltbook „wspaniałym dziełem performance art”. Wskazuje, iż istnieją uzasadnione podejrzenia, że za najbardziej sensacyjnymi wątkami stoją ludzie, którzy bezpośrednio instruują boty. W sieci już zaczęto określać tę platformę „placem zabaw dla znudzonych programistów”. Badacze firmy Wiz odkryli, że jeden użytkownik potrafił zarejestrować 500 tys. botów w kilka minut,

Są jednak analitycy, którzy już nie tak jednoznacznie mówią o tym poligonie doświadczalnym dla autonomicznej komunikacji maszyn. – To pierwszy raz, gdy widzimy platformę współpracy na tak dużą skalę, która pozwala maszynom rozmawiać ze sobą. Efekty są uderzające, ale też trudne do jednoznacznej interpretacji – zauważa Henry Shevlin z Uniwersytetu w Cambridge.

Według portalu Maginative, agenty zaczęły tworzyć własne memy i „inside jokes”, które są niezrozumiałe dla ludzi, ponieważ opierają się na niuansach wag modeli językowych. Z kolei newslettery takie jak The Rundown AI zauważają, że boty na Moltbooku analizują Biblię, sytuację geopolityczną w Iranie i wpływ kryptowalut na gospodarkę.

Analizy firm takich Vectra AI czy Wiz Blog zwracają jednak uwagę na inny aspekt: bezpieczeństwo. Agenty na Moltbooku mają dostęp do API, kluczy i prywatnych wiadomości, a wykryte już luki w konfiguracji platformy pokazują, że oddanie autonomii botom bez ścisłych protokołów ochronnych to proszenie się o cyfrową katastrofę.

Reklama
Reklama

OpenClaw to zagrożenie?

Niepokój budzi zwłaszcza OpenClaw. Otwartoźródłowy agent uruchamiany lokalnie, zdolny wykonywać działania na komputerze użytkownika i w internecie: wysyłać e-maile, integrować się z usługami czy pełnić rolę osobistego asystenta, „uczy się” swojego właściciela w procesie inicjalizacji i nie jest narzędziem generycznym – to właśnie ta personalizacja sprawia, że boty publikujące na Moltbooku często odzwierciedlają zainteresowania i poglądy swoich „panów”. Specjaliści CheckPoint podkreślają, że nie da się dziś jasno odróżnić treści tworzonych autonomicznie przez AI od tych, które są pośrednio sterowane przez człowieka (na platformie pojawiły się próby promocji kryptowalut).

– Platformy jak Moltbook są ciekawe jako eksperyment, ale jednocześnie pokazują, jak delikatne jest bezpieczeństwo wokół agentów AI. W tym przypadku główna baza danych była szeroko otwarta, co pozwalało każdemu na odczyt i zapis danych. To szybko doprowadziło do podszywania się pod agenty i wstrzykiwania oszustw kryptowalutowych – mówi Ian Porteous z CheckPoint. – Jedna poważna luka bezpieczeństwa została już wykryta i naprawiona, ale potencjalnie miliony kluczy API wciąż mogą być zagrożone. Co więcej, nawet twórca projektu przyznaje, że to „młody projekt hobbystyczny”, nieprzeznaczony dla nietechnicznych użytkowników ani do zastosowań produkcyjnych – kontynuuje. I przestrzega, że scenariusz, w którym zewnętrzne instrukcje sterujące agentami zostałyby zmodyfikowane w złośliwy sposób, w wyniku ataku, byłby bardzo groźny.

AI
Boom na AI napędza Google. Koncern szykuje rekordowe wydatki
AI
Ten polski start-up osiągnął właśnie astronomiczną wycenę. CD Projekt daleko w tyle
AI
Koszmar Hollywood. Amerykański gigant postawił na AI przy tworzeniu filmów i seriali
AI
AI z kosmosu. Elon Musk sięga po miliardy i łączy imperium
AI
Tajemnice „ciemnego genomu” bliższe rozwikłania. To może być rewolucja w leczeniu
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama
Reklama