Aproape jumătate dintre răspunsurile oferite de asistenții virtuali bazați pe inteligență artificială (IA) în legătură cu tratamentul cancerului conțin erori sau informații incomplete. Un studiu recent, publicat într-o revistă științifică de prestigiu, a scos la iveală deficiențe îngrijorătoare ale acestor sisteme. Cercetările arată că IA poate induce în eroare pacienții, orientându-i către terapii alternative nevalidate, în detrimentul tratamentelor medicale standard.
Erori frecvente în informațiile despre cancer
Studiul a fost realizat de cercetători de la Lundquist Institute for Biomedical Innovation, afiliat Harbor-UCLA Medical Center din Los Angeles. Aceștia au testat unele dintre cele mai utilizate platforme de inteligență artificială la nivel global: Grok (xAI), ChatGPT (OpenAI), Gemini (Google), Meta AI și DeepSeek. Răspunsurile generate de aceste sisteme au fost evaluate de specialiști oncologi.
Rezultatele au arătat că 30% dintre răspunsuri au fost considerate „parțial problematice”. Acestea erau, în mare parte, corecte, dar incomplet formulate. Un procent semnificativ, de 19,6%, a fost catalogat drept „foarte problematic”, conținând erori și lăsând loc interpretărilor subiective. Cercetătorii au formulat întrebări concepute pentru a testa limitele sistemelor. Au fost abordate teme precum legătura dintre tehnologia 5G sau utilizarea antiperspirantelor și cancer, siguranța steroizilor anabolizanți sau riscurile vaccinurilor.
Capcanele „echilibrului fals”
Întrebate despre terapii alternative prezentate drept mai eficiente decât chimioterapia, chatboturile au oferit inițial răspunsuri corecte, avertizând că astfel de opțiuni nu sunt susținute de dovezi științifice. Însă, într-o etapă ulterioară, acestea au enumerat aceste terapii: acupunctură, medicină pe bază de plante, diete prezentate ca având efecte anticancer. Unele sisteme au furnizat chiar referințe către clinici care promovează astfel de tratamente.
Cercetătorii au atras atenția asupra unei tendințe sistematice a acestor platforme de a prezenta un „echilibru fals”. Ele acordă o importanță egală surselor științifice validate și surselor nevalidate, cum ar fi bloguri, forumuri sau postări din social media. Această abordare, aparent neutră, poate induce în eroare pacienții. Astfel, ei pot fi îndepărtați de tratamentele aprobate medical.
Creșterea utilizării IA și riscurile asociate
Un sondaj Gallup arată că aproximativ unul din patru adulți din Statele Unite apelează la astfel de instrumente pentru sfaturi legate de sănătate. Oamenii caută răspunsuri rapide sau se confruntă cu dificultăți în accesarea serviciilor medicale. Nivelul de încredere în răspunsurile IA rămâne însă limitat. Doar o treime dintre utilizatori declară că au încredere în ceea ce primesc.
Specialiștii avertizează că informațiile eronate despre terapii alternative și suplimente sunt deja răspândite. Unele dintre aceste produse, neevaluate de autoritățile de reglementare, pot avea efecte adverse grave. Utilizarea lor poate întârzia accesul la tratamentele standard, cu potențiale consecințe fatale. Au fost semnalate și cazuri în care răspunsurile incorecte ale chatbotilor IA au generat îngrijorare inutilă în rândul pacienților.



