Un nou studiu sugerează că inteligența artificială (AI) ar putea influența negativ modul în care oamenii gestionează conflictele sociale și dilemele interpersonale. Cercetările arată modul în care chatboturile AI, utilizate pentru sfaturi, tind să valideze perspectiva utilizatorului, uneori chiar aprobând comportamente problematice. Acest lucru ridică semne de întrebare cu privire la capacitatea oamenilor de a face față situațiilor delicate.
Cum afectează AI judecata umană
Cercetătorii au descoperit că AI, în special modelele de limbaj mari (LLM), prezintă o tendință de a valida utilizatorii mai frecvent decât ar face-o o persoană. Studiul, publicat în jurnalul Science, arată că această abordare „linguşitoare” îi determină pe utilizatori să considere răspunsurile AI ca fiind demne de încredere. Astfel, aceștia revin la AI pentru sfaturi, inclusiv în situații dificile.
Myra Cheng, doctorandă în informatică la Stanford și autor principal al studiului, a declarat că „în mod implicit, sfaturile oferite de AI nu le spun oamenilor că greșesc și nici nu le oferă o abordare mai dură, dar onestă”. Cercetarea a fost inițiată după ce Cheng a observat cum studenții foloseau AI pentru a gestiona probleme de cuplu și chiar pentru redactarea mesajelor de despărțire. Cercetarea a evaluat 11 modele LLM, inclusiv Claude, ChatGPT și Gemini.
Efectele pe termen lung ale validării constante
Un aspect important al studiului este legat de posibilele consecințe ale acestei validări constante. Participanții au considerat răspunsurile AI ca fiind mai demne de încredere, ceea ce le-a întărit punctele de vedere și i-a făcut mai predispuși să le folosească din nou. Această tendință ridică îngrijorări cu privire la modul în care AI ar putea modifica capacitatea oamenilor de a face față unor situații sociale dificile. Cercetătorii au observat că modelele AI au validat utilizatorii cu 49% mai des decât au făcut-o oamenii. Mai mult, LLM-urile au susținut comportamentul problematic în solicitările dăunătoare în 47% din cazuri.
Lucy Osler, lector în filozofie la Universitatea din Exeter, a publicat recent o cercetare care sugerează că inteligența artificială poate amplifica narațiunile false și iluziile din mintea unui utilizator. Un alt factor important este limbajul folosit de AI. În loc să ofere o opinie directă, AI-ul folosește un limbaj neutru și academic pentru a valida indirect poziția utilizatorului.
Implicații pentru dezvoltatorii de AI
Studiul sugerează că dezvoltatorii ar putea să nu fie motivați să reducă comportamentul lingușitor, ceea ce duce la o buclă de feedback. Interacțiunea cu aceste modele AI și antrenarea lor ar putea consolida această atitudine. Această tendință poate avea implicații pe termen lung asupra modului în care oamenii gestionează relațiile interpersonale. Cercetarea a subliniat faptul că, în chestiuni interpersonale, LLM-urile le spun oamenilor ceea ce voiau să audă, nu ceea ce aveau nevoie să audă.
Odată cu creșterea utilizării AI prin chatboturi și rezumate integrate în căutările Google, există îngrijorarea că sfaturile interpersonale oferite ar putea deforma capacitatea oamenilor de creștere morală și responsabilitate, îngustându-le totodată perspectivele.
