Utilizarea inteligenței artificiale în sistemul judiciar din Statele Unite devine tot mai frecventă, fiind adoptată nu doar de judecători, ci și de administrație. Până în prezent, peste 60% dintre judecătorii federali au recunoscut că au folosit cel puțin o dată aceste instrumente, iar 22% le utilizează zilnic sau săptămânal în activitatea lor. Deși apar riscuri legate de acuratețea și siguranța datelor, inițiativele pentru integrarea AI în tribunal își continuă expansiunea, fiind susținute inclusiv de parteneriate cu companii specializate în domeniu.
Impactul și aplicarea AI în activitatea judiciară
Judecătorul FEDERAL Xavier Rodriguez face frecvent apel la tehnologia AI pentru pregătirea audierilor. Înainte de o audiere, acesta introduce documentele relevante într-un instrument de inteligență artificială, care produce rapid o cronologie a cazului și afirmațiilor părților. Rodriguez afirmă că aceste soluții economisesc timp, arătând că „avocații mei pierd 30, 45 de minute, o oră, elaborând o cronologie a evenimentelor”, pe când sistemul le face instant. În plus, judecătorul poate cere AI să sugereze întrebări pentru avocați sau să identifice punctele slabe ale unor argumente, precum și să contribuie la redactarea hotărârii finale.
Studiile recente indică un interes crescând pentru folosirea AI în instantele americane, dar și temeri evidente legate de acuratețea și siguranța datelor generate. De exemplu, un studiu realizat de Universitatea Northwestern, în colaborare cu Rodriguez, a descoperit că cei mai mulți dintre judecători au folosit cel puțin o dată instrumente de AI în muncă, iar un sfert dintre aceștia le utilizează regulat.
Parteneriate și riscuri ale tehnologiei
Se observă o tendință clară de atragere a sistemului judiciar spre colaborarea cu dezvoltatori de tehnologie AI. Curțile din Los Angeles, de exemplu, au început un program pilot cu startup-ul Learned Hand, specializat în crearea unor instrumente AI pentru tribunal. Aceste sisteme sunt testate și în alte state, precum Michigan, unde AI ajută la procesarea dosarelor.
Companiile precum Thomson Reuters sau LexisNexis s-au angajat să furnizeze instrumente AI pentru sistemul judiciar federal, în încercarea de a fluidiza și eficientiza activitatea. Cu toate acestea, magistrații sunt conștienți de riscurile implicate. Ei avertizează asupra eventualelor greșeli generate de aceste tehnologii, inclusiv citări de cazuri inexistente sau descrieri false ale acuzațiilor. Într-un caz din New Jersey, un AI a inclus citări din dosare fictive, ceea ce a dus la corectarea documentelor și la dezbateri legate de siguranța acestor instrumente.
De asemenea, studiile au arătat că între 17 și 33% dintre răspunsurile generate de AI pot fi incorecte, ceea ce subliniază necesitatea verificării atente a informațiilor. În ciuda acestor probleme, procesele pilot, precum cel din Los Angeles, continuă, fiind limite pentru cazurile civile și monitorizate de instanțe.
Provocările și limitele utilizării AI
Deși adoptarea AI în instanțe a devenit o realitate, mulți judecători și experți evită să admită oficial folosirea acestor tehnologii. Ei preferă să păstreze discuția despre AI în domeniul operațional, pentru a evita controverse. Anumiți reprezentanți spun că, deși aceste instrumente pot ajuta la reducerea timpului de lucru, riscurile de erori sau de confidențialitate rămân susținute de atenție sporită și verificare continuă.
Un exemplu relevant este cazul din Districtul New Jersey, unde o citare falsă a apărut în documente generate de AI și a fost remediată cu rapiditate. În același timp, Comisia Juridică a Senatului SUA a criticat dur utilizarea tehnologiei în unele cazuri, promovând politici împotriva amestecului AI în cercetarea juridică, tocmai din cauza riscului erorilor.
Specialiști precum Michael Navin de la Centrul Național pentru Instanțele Statale afirmă că adoptarea AI în sistemul judiciar încă se află la început, iar utilizările sunt în mare parte individuale și separate de deciziile majore. Mai mult, judecătorii care utilizează deja AI admit că instrumentele pot cita cazuri inexistente sau pot produce descrieri false, ceea ce impune o verificare extrem de atentă. În ultimul raport, a fost menționat un program pilot care se va desfășura până toamna acestui an, în cadrul Curții Supreme a Județului Los Angeles, pentru evaluarea continuă a acestor tehnologii.



