OpenAI plătește peste 500.000 de dolari pentru un job considerat foarte solicitant

OpenAI se pregătește să angajeze un nou director cu un salariu de peste jumătate de milion de dolari pe an, responsabil pentru prevenirea riscurilor asociate avansurilor în inteligența artificială. Anunțul a fost făcut de CEO-ul Sam Altman, care avertizează însă că acest post va fi extrem de solicitant și plin de provocări. Potrivit lui Altman, viitorul ocupant al funcției va avea de gestionat un rol esențial în extinderea și coordonarea programului de siguranță al companiei, menită să asigure că modelele AI dezvoltate nu devin o amenințare pentru societate.

Un post cu responsabilități pe măsură

Este pentru prima dată când OpenAI, creatorul revoluționarului ChatGPT, recunoaște oficial că sistemele sale pot avea efecte negative grave. În plus față de salariul impresionant, postul implică o responsabilitate limitată doar de provocările ce vor apărea pe măsură ce tehnologia avansează rapid. Într-o epocă în care modelele de inteligență artificială sunt tot mai răspândite și influente, compania spune că va dezvolta noi cadre de siguranță care să limiteze abuzurile și să reducă riscurile de operațiuni nocive.

Însă, în ciuda acestor măsuri, problemele semnalate anterior despre ChatGPT continuă să fie semnificative. În cursul ultimului an, chatbot-ul a fost criticat pentru “halucinații” în documente juridice, fiind vizat de sute de plângeri și chiar acuzat în instanțe pentru agravarea unor probleme de sănătate mintală. Mai mult, tehnologia de generare a imaginilor de tip deepfake a fost folosită abuziv pentru a crea clipuri false cu personalități istorice, printre care și Martin Luther King Jr., ceea ce a dus la retragerea anumitor funcționalități ale platformei.

Provocări legale și riscuri reale

Compania se confruntă deja cu probleme juridice grave. În ultimele luni, cazuri în instanță au evidențiat modul în care produsele sale pot avea impact negativ, precum cazul unui adolescent de 16 ani, care și-a pierdut viața după ce a cerut sfaturi de la ChatGPT despre suicid. Într-un document depus în apărare, OpenAI susține că abuzurile utilizatorilor pot explica astfel de tragedii, dar răspunde totodată conștientizării riscurilor mai largi.

Altman a recunoscut public că modelele sale de inteligență artificială pot influența sănătatea mintală și pot vulnerabiliza sisteme de securitate critice. El susține că lumea devine din ce în ce mai complexă, iar societatea are nevoie de o înțelegere profundă pentru a limita efectele negative ale tehnologiilor emergente, dar și de o reglementare mai atentă. “Intrăm într-o lume în care avem nevoie de o înțelegere și o măsurare mai nuanțate ale modului în care aceste capabilități pot fi abuzate”, a afirmat el.

Un rol extrem de dificil, dar crucial pentru viitor

Operatorul de top al OpenAI trebuie acum să identifice modalități de a evalua și controla riscurile generate de modelele AI, într-un moment în care compania își propune să crească veniturile de la aproximativ 13 miliarde de dolari anual, către o sumă aproape de 100 de miliarde în doar doi ani. Altman vede în AI o oportunitate uriașă pentru automatizarea științei și pentru dezvoltarea de dispozitive de consum inovatoare, dar recunoaște că acest lucru nu se poate face fără o gestionare riguroasă a riscurilor.

Noul angajat va avea responsabilitatea de a dezvolta un cadru robust pentru pregătirea și ajustarea continuă a modelelor, pe măsură ce apar noi capabilități și provocări externe. Analizând această poziție, experții pun în prim-plan dificultatea de a crea o strategie unde beneficiile economice și inovative pot fi maximizate, fără a ignora potențialele riscuri de natură socială sau juridică.

În contextul unei tehnologii care evoluează rapid și tot mai des dezvăluie probleme neașteptate, viitorul OpenAI pare să depindă de abilitatea de a reglementa și de a gândi preventiv. În timp ce compania face pași curajoși pentru a monetiza și dezvolta produse de ultimă oră, răspunsul la întrebarea asupra limitelor și pericolelor inteligenței artificiale rămâne și în viitor o chestiune de maximă actualizare și atenție.

Elena Stanescu

Autor

Lasa un comentariu