Microsoft reacționează la critici privind avertismentele din termenii de utilizare ale Copilot
Compania americană Microsoft a venit cu explicații după criticile apărute pe rețelele de socializare legate de termenii de utilizare ai serviciului Copilot, un asistent bazat pe inteligență artificială destinat utilizatorilor corporate. În ultimele zile, utilizatorii au observat că printre clauzele serviciului se regăsesc avertismente neobișnuite, iar compania a anunțat planuri de actualizare a limbajului folosit.
subtitul: avertismentul referitor la utilizarea copilului digital
În termenii de utilizare publicați de Microsoft se precizează explicit că “Copilot este destinat exclusiv divertismentului”. Mai mult, utilizatorilor li se recomandă să nu se bazeze pe acesta pentru rezultate critice, întrucât “poate face greșeli și s-ar putea să nu funcționeze așa cum este prevăzut”. Clauza încheie cu sfatul de a folosi serviciul pe proprie răspundere, anumite formulări care au fost considerate de utilizatori ca fiind prea pesimiste sau jignitoare la adresa unui produs destinat productivității.
Ca urmare a acestor reacții, un purtător de cuvânt al Microsoft a precizat pentru PCMag că firma intenționează să actualizeze “limbajul învechit” din termenii de utilizare. Acesta a explicat că, pe măsură ce serviciul s-a dezvoltat, modul în care sunt exprimate prevederile trebuie adaptat, astfel încât să reflecte mai fidel utilizarea actuală a Copilot. “Acel limbaj nu mai reflectă modul în care produsul este utilizat astăzi și va fi modificat odată cu următoarea noastră actualizare,” a declarat oficialul.
subtitul: alte companii adoptă tactici similare în avertismentele pentru IA
Criticile la adresa Microsoft nu sunt un caz singular în domeniul inteligenței artificiale. Tom’s Hardware a semnalat că și alte giganți din domeniu, precum OpenAI sau xAI, aplică avertismente similare, indicând clar că rezultatele generate de algoritmi nu trebuie considerate “adevărul” absolut sau și ca “singurul serviciu de adevăr sau informații factuale”. Aceste precauții sunt parte a unei tendințe mai largi de a proteja companiile de eventuale responsabilități legale sau de a gestiona așteptările utilizatorilor.
OpenAI, de exemplu, avertizează explicit că rezultatele furnizate “nu trebuie să fie considerate întotdeauna exacte sau verificabile”, în timp ce xAI menționează că “nu putem garanta acuratețea informațiilor” oferite de modelele sale. Această practică a fost adoptată pentru a evita eventuale dispute legale, dar și pentru a raporta realitatea dificilă a tehnologiei din domeniu, care încă se află în faza de dezvoltare și optimizare.
Evenimentul recent din ecosistemul IA indică o tendință de a acorda o mai mare atenție drepturilor și responsabilităților utilizatorilor. La nivel european, autoritățile de reglementare au lansat discuții despre modalități de a face tehnologia mai sigură și mai transparentă, în timp ce companiile încep să includă avertismente mai clare în privința limitărilor sistemelor.
Microsoft a anunțat că va face o actualizare a termenilor de utilizare în cursul lunii iunie, în cadrul unui proces de revizuire aprofundată a comunicării cu utilizatorii și a clarității mesajului din documentele oficiale. Aceasta vine în contextul în care compania își propune să acorde mai multă transparență despre modul în care funcționează Copilot și limitele sale reale.




