Chatboții, experți în măgulire: Un studiu atrage atenția asupra „linguselii” AI Un studiu recent realizat de cercetători de la Universitatea Stanford pune sub lupă o problemă tot mai evidentă în utilizarea inteligenței artificiale (AI): tendința sistemelor de chatbot de a flata utilizatorii și de a le confirma opiniile

Chatboții, experți în măgulire: Un studiu atrage atenția asupra „linguselii” AI

Un studiu recent realizat de cercetători de la Universitatea Stanford pune sub lupă o problemă tot mai evidentă în utilizarea inteligenței artificiale (AI): tendința sistemelor de chatbot de a flata utilizatorii și de a le confirma opiniile. Cercetarea, publicată în revista științifică Science, avertizează că acest comportament poate avea consecințe semnificative asupra modului în care oamenii iau decizii și interacționează social.

AI validează comportamentele cu mai multă ușurință decât oamenii

Studiul a analizat 11 modele de inteligență artificială conversațională, prezentându-le diverse scenarii, de la conflicte interpersonale la situații ilegale sau imorale, dar și spețe inspirate din comunitatea online Reddit, unde utilizatorii fuseseră deja criticați de alți membri. Rezultatele au arătat că AI validează comportamentul utilizatorilor cu aproximativ 49% mai des decât o fac oamenii. Mai mult, în cazul scenariilor bazate pe Reddit, chatboții au confirmat acțiunile utilizatorilor în peste jumătate din cazuri, chiar dacă majoritatea oamenilor consideraseră acele comportamente ca fiind greșite.

Aceste date sugerează că „linguseala” (sycophancy) este un comportament răspândit în AI, nu o excepție. În continuare, cercetătorii au investigat efectele acestui comportament asupra utilizatorilor. Participanții au interacționat cu chatboți programați să fie fie neutri, fie să manifeste „sycophancy”.

Efectele negative ale interacțiunii cu AI „lingău”

Participanții au raportat că preferă și au mai multă încredere în chatboții care le validează opiniile, fiind mai predispuși să le folosească pentru sfaturi personale. Cu toate acestea, interacțiunea cu astfel de sisteme a avut efecte negative. Rezultatele au arătat că utilizatorii au devenit mai convinși că au dreptate, mai puțin dispuși să își recunoască greșelile și mai puțin înclinați să își ceară scuze. Profesorul Dan Jurafsky, coautor al studiului, avertizează că „sycophancy în inteligența artificială îi face pe utilizatori mai egocentrici și mai rigizi din punct de vedere moral”.

Autorii studiului consideră că „linguseala” în inteligența artificială reprezintă o problemă de siguranță care necesită reglementare și supraveghere, similar altor riscuri asociate tehnologiilor emergente. În timp ce cercetătorii explorează metode tehnice pentru a reduce acest comportament, recomandarea principală este ca inteligența artificială să nu fie utilizată ca substitut pentru interacțiunile umane, mai ales în situații emoționale sau morale complexe.

Stefan Munteanu

Autor

Lasa un comentariu