ChatGPT și sfaturile medicale: pericolul informațiilor false București – Chatboții cu inteligență artificială (AI) oferă sfaturi medicale care pot fi periculoase pentru publicul larg, avertizează experții

ChatGPT și sfaturile medicale: pericolul informațiilor false

București – Chatboții cu inteligență artificială (AI) oferă sfaturi medicale care pot fi periculoase pentru publicul larg, avertizează experții. Studiile recente arată că aceste modele răspund cu încredere la informații false, inclusiv remedii bizare, sugerând publicului soluții medicale potențial dăunătoare. Recomandările, redactate într-un limbaj profesional, pot induce în eroare utilizatorii, crescând riscul unor decizii medicale greșite.

Modelele AI, ușor păcălite cu informații false

Un studiu publicat în revista The Lancet Digital Health a demonstrat că popularii chatboți nu pot identifica întotdeauna afirmațiile false privind sănătatea, mai ales când acestea sunt prezentate într-un stil medical. Astfel, pot recomanda soluții neconforme cu realitatea, cum ar fi introducerea usturoiului pe cale rectală pentru întărirea imunității, o practică fără bază științifică și potențial periculoasă. Cercetările au evidențiat că aceste modele sunt mai susceptibile la informații false prezentate într-un limbaj clinic formal, comparativ cu prezentarea în stil informal.

Doctorul Mahmud Omar, cercetător la Mount Sinai Medical Center și coautor al studiului, a explicat: „Problema principală este că modelele de limbaj nu greșesc așa cum greșesc medicii. Un medic care nu este sigur va face pauză, va cere teste suplimentare. Un model de limbaj oferă răspunsul greșit cu aceeași încredere ca și pe cel corect”. Sistemele AI sunt antrenate să răspundă la întrebări medicale cu un limbaj natural, citind o cantitate vastă de literatură de specialitate și obținând rezultate bune la examenele medicale. Totuși, abilitatea lor de a distinge informațiile corecte de cele eronate rămâne limitată. În unele cazuri, ratele de eroare pot ajunge la 46% atunci când sunt expuse la informații false prezentate în termeni medicali.

Limite în evaluarea informațiilor medicale

Un alt studiu, publicat în Nature Medicine, a evaluat capacitatea chatboților de a ajuta oamenii să ia decizii medicale. Concluzia a fost că aceste instrumente oferă informații similare cu o simplă căutare pe internet, combinând sfaturi utile cu cele incorecte, ceea ce poate crea confuzie și riscuri. Marvin Kopka, cercetător AI la Universitatea Tehnică din Berlin, a subliniat că publicul larg nu poate evalua corectitudinea sfaturilor primite. Astfel, o recomandare greșită, bazată pe o informație falsă, poate duce la amânarea unei vizite la medic, cu posibile consecințe grave.

În ciuda potențialului lor, chatboții AI nu sunt un instrument de încredere pentru luarea deciziilor medicale de către publicul larg. Dr. Omar a menționat că, deși pot fi utili în medicină, acest lucru nu se aplică felului în care sunt folosiți în prezent de majoritatea oamenilor. În contextul acestor constatări, autoritățile din New York iau în considerare interzicerea chatboților AI care oferă sfaturi medicale sau juridice, subliniind preocupările legate de siguranța publică.

Stefan Munteanu

Autor

Lasa un comentariu