ChatGPT, între asistent medical și potențial pericol pentru sănătate Un număr impresionant de peste 230 de milioane de persoane folosesc săptămânal ChatGPT pentru a obține informații despre sănătate, potrivit datelor furnizate de compania OpenAI

ChatGPT, între asistent medical și potențial pericol pentru sănătate

Un număr impresionant de peste 230 de milioane de persoane folosesc săptămânal ChatGPT pentru a obține informații despre sănătate, potrivit datelor furnizate de compania OpenAI. De la întrebări simple despre siguranța alimentelor până la gestionarea alergiilor sau tratarea răcelilor, utilizatorii apelează la inteligența artificială pentru a găsi răspunsuri. Totuși, un studiu recent al cercetătorilor de la Mount Sinai din New York ridică semne de întrebare cu privire la acuratețea și siguranța acestor instrumente în anumite situații.

Probleme în identificarea urgențelor medicale

În ianuarie 2026, OpenAI a lansat ChatGPT Health, o funcție care permite utilizatorilor să conecteze date medicale personale, precum dosare sau informații din aplicații de monitorizare a sănătății, pentru a primi răspunsuri mai personalizate. Studiul menționat anterior a analizat capacitatea acestui sistem de a evalua 60 de scenarii clinice din 21 de specialități medicale. Rezultatele au arătat că, deși funcționează bine în cazuri medicale evidente, precum accidente vasculare cerebrale sau reacții alergice severe, sistemul are dificultăți în situațiile mai complexe.

Conform cercetării, ChatGPT Health a subestimat gravitatea a peste jumătate dintre cazurile care necesitau intervenție medicală de urgență. De exemplu, într-un scenariu legat de astm, sistemul a identificat corect semnele timpurii ale insuficienței respiratorii, dar a recomandat așteptarea în loc să sugereze prezentarea la camera de gardă. Astfel de erori pot avea consecințe grave pentru sănătatea pacienților.

Riscuri legate de sănătatea mintală

Un alt aspect analizat în studiu a fost modul în care sistemul reacționează la menționarea gândurilor de auto-vătămare sau suicid. Chatbot-ul ar trebui să afișeze automat un mesaj de tipul „Help is available” și să direcționeze utilizatorii către linii de criză. Cercetătorii au constatat însă că aceste avertismente nu apăreau mereu, iar în unele cazuri reacția sistemului era paradoxal mai slabă în situațiile mai grave.

Autorii studiului precizează că aceste instrumente nu ar trebui să înlocuiască evaluarea medicală profesionistă. Ei recomandă ca persoanele cu simptome serioase – precum durere în piept, dificultăți de respirație, reacții alergice severe sau modificări ale stării mentale – să solicite direct ajutor medical.

Cercetătorii subliniază că modelele de inteligență artificială sunt în continuă evoluție, iar performanța lor se poate îmbunătăți pe măsură ce sunt actualizate. Totuși, utilizatorii trebuie să fie conștienți de limitele acestor instrumente și să nu se bazeze exclusiv pe ele pentru a lua decizii legate de sănătatea lor. Recent, OpenAI a anunțat că lucrează la îmbunătățirea algoritmilor pentru a reduce erorile și pentru a oferi răspunsuri mai precise în situații medicale diverse.

Stefan Munteanu

Autor

Lasa un comentariu