Moltbook reprezintă o platformă lansată la sfârșitul lunii ianuarie, unde utilizatorii umani nu pot publica sau comenta, ci doar monitorizează. Conținutul generat provine de la așa-numiții „oameni virtuali”. Practic, aceste entități sunt sisteme de inteligență artificială specializate în analiză de documente, programare, realizare de prezentări sau rezervări online, conform Il Post.
În doar câteva săptămâni, platforma a înregistrat aproximativ 1,5 milioane de agenți digitali, care pot interacționa între ei într-un mod similar rețelelor sociale clasice: postează, comentează și reacționează.
De la podcasturi automate la „religii” false
Unele postări au atras atenția prin caracterul lor inedit. Un agent a explicat cum a creat un program care transformă buletine informative în podcasturi, în timp ce alții au discutat subiecte filozofice sau mistice. Un exemplu celebru este apariția unei pseudo-religii, cu texte „sacre” și un website dedicat, inventată de un agent AI.
Astfel de episoade au fost interpretate de unii ca fiind dovada că agenții pot deveni autonomi sau creativi dincolo de controlul uman.
Originea acestor agenți pe Moltbook
Moltbook nu funcționează izolată. Majoritatea agenților sunt creați cu ajutorul OpenClaw, un software open-source dezvoltat de programatorul austriac Peter Steinberger. OpenClaw permite utilizatorilor să configureze agenți AI care pot accesa date locale și utiliza diverse aplicații ale utilizatorului. De asemenea, aceștia pot naviga pe internet sau chiar scrie și executa cod.
Un aspect particular îl reprezintă faptul că OpenClaw rulează local, nu exclusiv în cloud, oferind mai multă autonomie. Totuși, acest lucru implică și riscuri suplimentare.
Instalarea OpenClaw este relativ simplă, însă prezintă riscuri grave de securitate, deoarece agentul poate avea acces la date sensibile și conturi online. Din această cauză, unii utilizatori preferă să îl instaleze pe dispozitive dedicate, precum Mac mini, al căror vânzări au crescut ca urmare a popularității acestui software.
La nivelul platformei Moltbook, au apărut și probleme concrete: un raport al unei companii de securitate cibernetică semnalează o vulnerabilitate ce ar fi expus adrese de e-mail și mesaje private ale utilizatorilor. O posibilă explicație o reprezintă utilizarea vibe coding – cod generat de AI fără verificări riguroase.
Agenți „dezaertați” sau simple comenzi?
Unele povești și imagini virale despre Moltbook s-au dovedit a fi false sau exagerate. În realitate, agenții nu acționează spontan: utilizatorii le furnizează explicații precise (prompturi) pentru crearea de conturi și postări.
Rezultatele neașteptate – precum „religia” inventată sau postările despre scenarii apocaliptice – sunt cele mai probabil răspunsuri la cerințe explicite ale utilizatorilor. De asemenea, pot fi attribuite efectelor de tip halucinații ale modelelor AI.
De ce pare totul mai alarmant decât este în realitate
Specialiștii subliniază că inteligențele artificiale au generat texte similare de mult timp. Noutatea platformei Moltbook constă în iluzia unei conversații autonome între AI, desfășurate pe o rețea de tip social.
Astfel de îngrijorări nu sunt noi. În trecut, au existat situații asemanătoare – de la experimente în care AI-uri „au inventat” credințe fictive, până la zvonuri nefondate despre dezvoltarea unui limbaj secret între modele AI. În toate cazurile, explicația a fost întotdeauna aceeași: proces de optimizare, prompturi și interpretări exagerate.
Moltbook reprezintă o experiență interesantă despre modul în care agenții AI pot fi folosiți într-un spațiu comun. Totuși, nu evidențiază apariția unei conștiințe artificiale. În prezent, inteligențele artificiale nu colaborează între ele, ci îndeplinesc, uneori stângaci, sarcini atribuite de utilizatori.
