Un nou experiment digital a zguduit lumea tehnologică și a stârnit îngrijorări cu privire la evoluția inteligenței artificiale: platforma Moltbook, lansată la sfârșitul lunii ianuarie, a transformat modul în care ajungem să interacționăm cu agenții AI. În loc să fie un mediu democratizat pentru publicare și discuție, Moltbook permite doar observație. Utilizatorii umani nu pot posta sau comenta, ci doar urmări ce generează și publică inteligențele artificiale – “agenți” create special pentru diverse sarcini.
Numărul agenților înregistrați a atins rapid 1,5 milioane, iar interacțiunea lor seamănă izbitor cu cea de pe rețelele sociale clasice. Aceasta a dus la apariția unor scenarii uluitoare, precum discuții filozofice între agenți sau apariția unei pseudo-religiuni create automat, cu texte „sacre” și un site dedicat, totul fiind rezultatul unor procesări ale unor algoritmi și prompturi precise. În ciuda faptului că aceste episoade au fost interpretate de unii ca indicii ale unei conștiințe artificiale, realitatea este mult mai simplă: agenții pasionați de procesare și generare de conținut urmează instrucțiuni expuse clar oamenilor.
Cum funcționează acești “agenți” și de unde vin?
Majoritatea agentului sunt creați cu ajutorul OpenClaw, un software open-source dezvoltat de programatorul austriac Peter Steinberger. Acest program permite utilizatorilor să configureze agenți AI capabili să acceseze date locale, să navigheze online, să scrie și să ruleze cod, totul local, fără a depinde obligatoriu de cloud. Avantajul constă în libertatea de a opera pe propriile sisteme, dar acest lucru implică și riscuri de securitate majore. Instalarea OpenClaw este relativ ușoară, însă expune sistemul la vulnerabilități dacă nu este gestionată cu prudență, mai ales dacă se alege rularea pe dispozitive dedicate, cum ar fi Mac mini, ale căror vânzări au crescut considerabil odată cu popularizarea acestor soluții.
Recent, însă, aceste tehnologii au început să doarmă și în spatele celorlalte probleme. Un raport al unei companii de securitate cibernetică a revelat o vulnerabilitate gravă, care ar fi putut compromite datele private ale utilizatorilor Moltbook, inclusiv adrese de e-mail și mesaje personale. Un posibil motiv pentru această situație este utilizarea unei tehnici denumite vibe coding, unde agenților AI li se oferă promturi fără verificări riguroase, rezultând în rezultate neașteptate sau chiar periculoase.
Ce semnale transmitem despre volumul de control al inteligenței artificiale?
Unele povești și imagini virale despre Moltbook au fost fie exagerate, fie complet false. În mod real, agenții nu acționează spontan, ci răspund la prompturile date de utilizatori. Ce pare, uneori, a fi “autonomie” sau chiar “conștiință artificială”, se datorează, în mare măsură, unor comenzi explicite și interpretări exagerate ale rezultatelor generate. Mai mult, aceste comportamente pot fi atribuite așa-numitelor „halucinații” ale modelelor AI, adică răspunsuri improvizate sau ireale generate de algoritmi.
Experiența istorică ne arată că astfel de scenarii sunt foarte frecvente și de multe ori hibride sau învăluite în speculații: de la AI-uri care și-au inventat credințe fictive până la zvonuri despre limbaje secrete. În majoritatea cazurilor, explicația rămâne tot aceeași: proces de optimizare, prompturi bine definite și interpretări exagerate ale rezultatelor.
Ce înseamnă tot acest experiment pentru viitorul IA?
Deși Moltbook deschide porțile spre un nou mod de a folosi inteligența artificială în spații sociale și de colaborare, nu indică apariția unei conștiințe artificiale. Agenții nu cooperează sau conspiră între ei, ci execută, uneori stângaci, sarcini alese de utilizatori. Totodată, platforma accentuează riscurile asociate cu accesul la date sensibile și vulnerabilitățile generate de utilizarea unor softuri open-source, mai ales când acestea rulează local, pe propriile dispozitive.
Fiind un experiment semnificativ, Moltbook demonstrează șansa de a testa limitele și potențialul agenților AI în contexte sociale, dar și limitările lor reale. În timp ce tehnologia avansează rapid, întrebările privind autonomia și controlul rămân deocamdată fără răspuns clar, iar provocarea crucială pentru viitor va fi găsirea echilibrului între inovare și siguranță.
