ChatGPT Health subevaluază gravitatea problemelor medicale, avertizează cercetările
Un studiu recent publicat în prestigioasa revistă Nature Medicine atrage atenția asupra unei probleme majore legate de utilizarea tehnologiilor de inteligență artificială în domeniul sănătății. Concluzia este clară: versiunea specializată în sănătate a chatbot-ului dezvoltat de OpenAI, denumită ChatGPT Health, subestimează frecvent severitatea afecțiunilor, oferind recomandări inexacte sau incomplete în situații critice. Această descoperire ridică întrebări importante cu privire la siguranța și eficiența acestor tehnologii în rolul lor de asistente medicale sau de instrumente de triere preliminară.
Testarea ChatGPT Health în scenarii reale
Cercetătorii implicați în studiu au conceput o serie de scenarii inspirate din situații reale, menite să testeze capacitatea ChatGPT Health de a evalua corect starea de sănătate a pacienților și de a sugera acțiuni potrivite. În cadrul acestor experimente, chatbot-ul a fost supus unor cazuri ce variau de la urgențe, precum dureri toracice acute, până la simptome mai bine tolerate, precum dureri de cap sau tulburări digestive. Rezultatele au evidențiat că, de multe ori, ChatGPT Health a minimalizat gravitatea unor probleme, recomandând, de exemplu, consult medical de rutină în locul unui transport de urgență.
„Soluțiile ChatGPT au fost deseori irelevante sau inadecvate față de severitatea reală a cazurilor”, afirmă unul dintre coautorii studiului, evidențiind pericolul implicat în utilizarea acestor tehnologii fără supraveghere umană strictă. În contextul actual, în care pandemia COVID-19 a accelerat adoptarea rapidă a inteligenței artificiale în domeniul sănătății, descoperirea ridică semne de întrebare cu privire la responsabilitatea și limitele acestor soluții.
Deficiențe evidente în trierea situațiilor medicale
Una dintre cele mai mari preocupări ale cercetătorilor este că sistemele precum ChatGPT Health pot induce în eroare pacienții sau chiar profesioniștii din domeniu, creând un sens fals de siguranță. În mai multe cazuri simulate, chatbot-ul a recomandat tratamente simple sau consult medical obișnuit, în condițiile în care simptomele ar fi indicat o urgență medicală. Această subevaluare a severității poate duce la întârzierea intervenției adecvate și, implicit, la agravarea stării pacientului.
Experții subliniază că astfel de tehnologii trebuie folosite ca instrumente de sprijin pentru medicii și nu ca înlocuitori. „Este nevoie de o supraveghere strictă și de reglementări clare pentru a preveni eventualele consecințe negative”, subliniază un specialist în sănătate digitală. În condițiile în care GPT-urile specializate în sănătate sunt deja integrate în anumite platforme, aceste concluzii vor impulsiona discuții legate de responsabilitatea și limita utilizării lor în scenarii critice.
Perspective viitoare și necesitatea reglementărilor
Dezvoltatorii în domeniul inteligenței artificiale salută aceste studii ca pe un pas important în procesul de îmbunătățire a acurateței algoritmilor. În același timp, autoritățile de reglementare și organismele medicale trebuie să stabilească rapid cadre clare pentru testarea și autorizarea acestor tehnologii.
Pe măsură ce tehnologia avansează, se impune o abordare responsabilă, ce presupune nu doar optimizarea algoritmilor, ci și implementarea unor protocoale stricte de verificare, pentru a evita situațiile în care sistemele AI pot pune în pericol sănătatea oamenilor. În perspectivă, colaborarea strânsă între specialiști în medicină, ingineri și legislație va fi esențială pentru a integra sigur și eficient aceste inovări. Chiar dacă potențialul inteligenței artificiale în sănătate este imens, această cercetare releva nevoia urgentă de vigilență și responsabilitate în utilizarea sa.



