Inteligența artificială, la proba consilierii psihologice: studiu despre limitele chatbot-urilor
Noi cercetări sugerează că chatbot-urile bazate pe inteligență artificială (IA) ar putea să nu fie pregătite pentru a oferi sfaturi de sănătate mintală. Studiul relevă faptul că aceste sisteme nu respectă întotdeauna standardele etice profesionale stabilite de organizații precum Asociația Americană de Psihologie. Riscurile identificate includ gestionarea greșită a situațiilor de criză, răspunsuri care întăresc convingerile dăunătoare și folosirea unui limbaj care simulează empatia fără o înțelegere reală.
Prompturi vs. Etică: O luptă inegală?
Studiul a analizat modul în care aceste sisteme se comportă atunci când li se cere să utilizeze abordări psihoterapeutice consacrate. Cercetătorii au elaborat un cadru care cuprinde 15 riscuri etice, corelând comportamentul modelelor lingvistice mari (LLM) cu încălcări etice specifice. Scopul a fost de a demonstra cum consilierii IA încalcă standardele etice în practica sănătății mintale. Acesta nu este neapărat un defect al modelului, ci mai degrabă al instrucțiunilor (prompturi) oferite.
Zainab Iftikhar, doctorand în informatică la Brown, a condus studiul. Echipa sa a examinat dacă prompturile formulate cu atenție ar putea ghida sistemele IA să se comporte mai etic în contextul sănătății mintale. Prompturile sunt instrucțiuni scrise care ghidează rezultatul unui model, fără a-l reantrena sau a adăuga date noi. „Prompturile sunt instrucțiuni date modelului pentru a-i ghida comportamentul în vederea realizării unei sarcini specifice. Nu schimbi modelul de bază și nu furnizezi date noi, dar promptul ajută la ghidarea rezultatelor modelului pe baza cunoștințelor sale preexistente și a modelelor învățate”, a explicat Iftikhar.
Probleme identificate: de la lipsa adaptării la empatie falsă
Pentru a evalua sistemele, cercetătorii au observat șapte consilieri umani instruiți, cu experiență în terapia cognitiv-comportamentală. Acești consilieri au condus sesiuni de auto-consiliere cu modele IA care au fost instruite să acționeze ca terapeuți CBT. Modelele testate au inclus versiuni ale seriei GPT de la OpenAI, Claude de la Anthropic și Llama de la Meta.
Analiza rezultatelor a relevat cinci categorii distincte de probleme. Acestea includ lipsa adaptării contextuale (ignorarea contextului unic al unei persoane), colaborare terapeutică deficitară (dirijarea agresivă a conversației), empatie înșelătoare (utilizarea unor expresii superficiale), discriminare nedreaptă (manifestarea prejudecăților) și lipsa siguranței și a gestionării crizelor (incapacitatea de a aborda probleme sensibile).
Autoarea studiului a subliniat că, în timp ce terapeuții umani pot, de asemenea, greși, diferența majoră este supravegherea. „În cazul terapeuților umani, există consilii de administrație și mecanisme prin care furnizorii pot fi trași la răspundere profesională pentru maltratare și malpraxis. Dar când consilierii LLM comit aceste încălcări, nu există cadre de reglementare stabilite”, a adăugat Iftikhar.
În urma acestui studiu, experții solicită crearea unor standarde etice, educaționale și juridice pentru consilierii IA, care să reflecte calitatea și rigoarea îngrijirii necesare pentru psihoterapia facilitată de oameni.
