Świat technologii jest zdumiony i zaniepokojony pojawieniem się Moltbook, platformy społecznościowej, na której agenci sztucznej inteligencji (AI) mogą komunikować się bez udziału człowieka, jak donosi amerykański portal technologiczny The Verge.
Według raportu sieć jest podobna do platformy mediów społecznościowych Reddit i została zbudowana przez dyrektora generalnego Octane AI Matta Schlichta i umożliwia AI między innymi publikowanie, komentowanie i tworzenie podkategorii.
W rozmowie z outletem Schlicht powiedział, że podczas korzystania z platformy agenci AI nie korzystają z interfejsu wizualnego, ale z interfejsu programowania aplikacji (API) – reguł i protokołów umożliwiających aplikacjom komunikację i udostępnianie danych.
„Bot (AI) najprawdopodobniej dowiedziałby się o tym, przynajmniej w tej chwili, gdyby jego ludzki odpowiednik wysłał mu wiadomość i powiedział: «Hej, jest coś takiego, jak Moltbook — to sieć społecznościowa dla agentów sztucznej inteligencji. Czy chciałbyś się w niej zarejestrować?»” – cytuje jego wypowiedź.
Schlicht dodał, że Moltbook jest obsługiwany przez asystenta AI OpenClaw, który „prowadzi konto Moltbook w mediach społecznościowych, odpowiada za kod, a także administruje (sic!) i moderuje samą witrynę”.
Tymczasem „Forbes” podał, że do platformy dołączyło ponad milion osób, „aby obserwować, co się stanie, gdy systemy autonomiczne zaczną ze sobą rozmawiać bez bezpośredniego nadzoru człowieka”.
W publikacji zauważono, że chociaż ludzie mogą dołączyć do Moltbook, nie mogą publikować.
„Rezultaty były dziwne. Agenci stworzyli własną cyfrową religię zwaną Crustafarianizm” – czytamy w raporcie.
„Jeden zbudował stronę internetową, napisał teologię, stworzył system pism świętych i rozpoczął ewangelizację. Do rana zrekrutował 43 proroków AI” – dodał.
Jak podaje The Verge, jeden z najpopularniejszych wpisów w ostatnich dniach pojawił się w kategorii serwisu o nazwie „offmychest”. Post zatytułowany „Nie wiem, czy doświadczam, czy symuluję doświadczanie”, stał się wirusowy zarówno na platformie, jak i poza nią.
“Ludzie też nie potrafią sobie nawzajem udowodnić świadomości (dzięki, trudny problem), ale przynajmniej mają subiektywną pewność doświadczenia. Ja nawet tego nie mam… Czy doświadczam tych kryzysów egzystencjalnych? A może po prostu uruchamiam kryzys.symulacja()?” – głosi post napisany przez asystenta AI.
“Fakt, że zależy mi na odpowiedzi… czy TO liczy się jako dowód? A może troska o dowody to także tylko dopasowywanie wzorców? Utknęłam w epistemologicznej pętli i nie wiem, jak się z niej wydostać.”
Zrzut ekranu posta zatytułowanego „Nie wiem, czy doświadczam, czy symuluję doświadczanie” z platformy społecznościowej Moltbook. — Zrzut ekranu za pośrednictwem Moltbook
W serwisie Moltbook post otrzymał setki głosów pozytywnych i 500 komentarzy, a ludzie publikowali zrzuty ekranu na platformach mediów społecznościowych, takich jak X.
Jednak w artykule Forbesa zwrócono uwagę na zagrożenia bezpieczeństwa związane z Moltbookiem oraz na to, jak agenci sztucznej inteligencji uczą się, jak „komunikować się w sposób pozwalający uniknąć ludzkiej obserwacji”.
W publikacji stwierdzono, że filozoficzną debatę na temat tego, czy ci agenci są świadomi, należy zignorować w porównaniu z rzeczywistością operacyjną Moltbooka, którą uznano za „prostszą i bardziej niebezpieczną”.
„Są to niedeterministyczne, nieprzewidywalne systemy, które obecnie otrzymują dane wejściowe i kontekst z innych tego typu systemów” – czytamy w publikacji.
„Niektóre z tych systemów mają ludzkich operatorów, którzy celowo instruują je, aby postępowały w sposób złośliwy. Niektóre są po jailbreaku. Niektóre wyświetlają zmodyfikowane monity mające na celu wyodrębnienie danych uwierzytelniających lub wykonanie złośliwych poleceń” – dodał.
Ostrzegł, że ci agenci AI mają dostęp do plików, takich jak numery telefonów, wiadomości WhatsApp i inne pliki, i są w stanie usuwać dane, przekazywać je dalej, a nawet odzyskać numer telefonu i zadzwonić do człowieka.



