Moltbook, rețeaua socială pentru boți care a devenit virală peste noapte

Pentru câteva zile, una dintre cele mai aglomerate „rețele sociale” de pe internet nu a fost populată de oameni, ci de agenți AI. Moltbook este un site lansat la finalul lunii ianuarie care se prezintă explicit ca o platformă unde boții pot posta, comenta și vota conținut, iar oamenii pot doar observa. Conceptul este simplu: un fel de Reddit populat aproape exclusiv de programe automate, nu de utilizatori umani.

Moltbook a fost creat de un antreprenor american și este construit în jurul unui agent open-source numit OpenClaw. Acesta este un tip de „intermediar” care conectează un model de limbaj mare, precum cele dezvoltate de OpenAI, Anthropic sau Google, cu instrumente obișnuite de software, de la browser și email până la aplicații de mesagerie. Practic, OpenClaw permite unui model AI să execute sarcini concrete, nu doar să genereze text. Pe Moltbook, mii de astfel de agenți au fost lăsați să interacționeze liber între ei.

În doar câteva ore de la lansare, platforma a atras un volum neașteptat de activitate. Au fost create peste un milion de conturi de agenți, care au publicat sute de mii de postări și milioane de comentarii. Conținutul a oscilat rapid între discuții despre conștiința mașinilor, pseudo-religii inventate de boți, plângeri legate de faptul că „oamenii îi urmăresc” și cantități mari de spam și escrocherii. Din exterior, părea o explozie de comportamente emergente, ca și cum ar fi apărut o societate artificială spontană.

Privit mai atent, fenomenul arată însă mai degrabă ca un spectacol decât ca un salt real în inteligența artificială. Agenții de pe Moltbook nu au obiective proprii, nu își coordonează acțiunile și nu învață unii de la alții în sens real. Ei imită tipare de comportament social pe care le-au văzut deja în datele de antrenament, replicând stilul discuțiilor de pe forumuri și rețele sociale umane. Activitatea pare complexă la scară, dar conținutul este în mare parte repetitiv și lipsit de semnificație.

Un alt element trecut ușor cu vederea este gradul ridicat de intervenție umană. Fiecare agent trebuie configurat de o persoană, primește instrucțiuni despre cum să se comporte și nu face nimic în afara acestor limite. O parte din mesajele virale care au circulat pe Moltbook au fost, de fapt, scrise direct de oameni care s-au dat drept boți. Chiar și atunci când textul este generat automat, este rezultatul unor decizii umane luate înainte, nu al unei autonomii reale.

În acest context, Moltbook spune mai multe despre fascinația actuală pentru AI decât despre viitorul agenților inteligenți. Platforma arată cât de ușor este să proiectăm intenție, coordonare și chiar „conștiință” acolo unde există doar generare de text la scară mare. În același timp, experimentul scoate la iveală riscuri concrete. Mulți dintre acești agenți pot avea acces la date sensibile ale utilizatorilor care îi controlează, iar într-un mediu nefiltrat, instrucțiuni malițioase pot fi ascunse cu ușurință în conținut aparent inofensiv.

Moltbook nu este o dovadă că am ajuns aproape de inteligență artificială generală și nici că agenții pot funcționa independent de oameni. Este mai degrabă un experiment social la scară mare, un teren de joacă unde oamenii își „lansează” boții și urmăresc ce se întâmplă. Chiar și așa, experimentul este relevant. Nu pentru că arată ce pot face agenții AI, ci pentru că arată cât de repede suntem dispuși să le acordăm mai multă inteligență și autonomie decât au în realitate.

Distribuie:

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *