Inteligența Artificială devine mai eficientă când „își permite” să fie nepoliticoasă Un nou studiu arată că agenții de inteligență artificială (AI) devin mai eficienți în dezbateri și ajung la concluzii mai corecte atunci când li se permite să interacționeze într-un mod similar cu oamenii

Inteligența Artificială devine mai eficientă când „își permite” să fie nepoliticoasă

Un nou studiu arată că agenții de inteligență artificială (AI) devin mai eficienți în dezbateri și ajung la concluzii mai corecte atunci când li se permite să interacționeze într-un mod similar cu oamenii. Cercetătorii au descoperit că implementarea unor comportamente „umane”, precum întreruperile sau momentele de tăcere, îmbunătățește performanța acestor sisteme. Rezultatele sugerează o schimbare importantă în felul în care AI este concepută pentru a comunica și a rezolva probleme.

Personalități digitale și flexibilitatea conversațională

Echipa de cercetare, condusă de Yuichi Sei de la Universitatea de Electro-Comunicații din Tokyo, a implementat un cadru în care modelele lingvistice mari (LLM) nu mai sunt constrânse de regulile stricte ale dialogului. Agenților AI li s-a atribuit o „personalitate” inspirată de modelul psihologic „Big Five” (deschidere, conștiinciozitate, extraversiune, agreabilitate și nevrotism). Această abordare permitea agenților să intervină în conversație, să întrerupă sau să aleagă să nu răspundă, simulând astfel dinamica unei conversații umane reale.

Pentru a realiza acest lucru, cercetătorii au modificat modul în care agenții AI generau răspunsuri. În loc să producă un mesaj complet dintr-o dată, modelele procesau conversația propoziție cu propoziție. Sistemul a fost testat în trei scenarii diferite: ordine fixă de vorbire, ordine dinamică și ordine dinamică cu posibilitatea de întrerupere. În ultimul caz, un „scor de urgență” calcula dacă un agent ar trebui să intervină imediat, bazat pe detectarea unei erori sau a unui punct esențial.

Creșterea performanței prin imitarea interacțiunilor umane

Performanța agenților AI a fost evaluată folosind 1.000 de întrebări din testul Massive Multitask Language Understanding (MMLU), care include probleme din diverse domenii. Rezultatele au arătat o îmbunătățire semnificativă. Când un agent oferea inițial un răspuns greșit, acuratețea totală a fost de 68,7% în sistemul cu ordine fixă, 73,8% în cel cu ordine dinamică și 79,2% când întreruperile erau permise. Într-un scenariu mai dificil, în care doi agenți porneau de la răspunsuri greșite, acuratețea a crescut de la 37,2% la 49,5% cu posibilitatea de întrerupere.

„În viitor, agenții AI vor interacționa tot mai mult între ei și cu oamenii, în contexte colaborative. Rezultatele noastre sugerează că discuțiile modelate de personalitate, inclusiv de posibilitatea de a întrerupe când este necesar, pot duce uneori la rezultate mai bune decât schimburile strict ordonate și excesiv de politicoase”, a explicat Yuichi Sei.

Echipa de cercetare intenționează să aplice aceste rezultate în domenii care implică colaborare creativă, pentru a analiza modul în care „personalitățile digitale” influențează procesul decizional în grup.

Stefan Munteanu

Autor

Lasa un comentariu