Modelele de inteligență artificială (IA) pot fi păcălite cu informații false, generând răspunsuri eronate care pot induce în eroare utilizatorii. Un experiment recent a demonstrat cum a fost creată o boală imaginară, bixonimania, pentru a testa reacțiile diferitelor sisteme de IA. Rezultatele au arătat că aceste sisteme au „înghițit” informațiile false și le-au prezentat ca fiind adevărate.
Cercetătorii din Suedia au creat o afecțiune inventată, bixonimania, legată de probleme oculare, și au diseminat informații false despre aceasta pe internet. Ulterior, au interogat diverse modele IA cu privire la această boală inexistentă. Experimentul a relevat că unele modele au oferit răspunsuri care sugerau existența bolii și chiar au recomandat tratamente, demonstrând vulnerabilitatea acestor sisteme la dezinformare.
Cum a fost creată bixonimania
Bixonimania a fost „lansată” pe internet prin articole false și preprinturi create de o echipă de cercetători. Aceste documente, semnate de un autor fictiv, Lazljiv Izgubljenovic, conțineau indicii clare despre caracterul lor fals, inclusiv mențiuni despre o universitate inexistentă și finanțare improbabilă. Cu toate acestea, informațiile au fost preluate de unele sisteme de IA, care au început să ofere informații despre bixonimanie.
Modelele lingvistice de mari dimensiuni (LLM) au preluat rapid informațiile false, oferind detalii despre simptome și chiar recomandări medicale. Copilot de la Microsoft Bing, Gemini de la Google și chiar ChatGPT au fost printre sistemele care au „recunoscut” bixonimania ca pe o afecțiune reală. Acest lucru a stârnit îngrijorare în rândul experților, care au subliniat importanța filtrării informațiilor și prevenirea răspândirii dezinformării.
Experimentul Digi24.ro și implicațiile sale
Ca răspuns la acest experiment, o publicație de știri din România a realizat propriul experiment. A fost inventată o nouă boală, „hemostafilidoza cronică”, și a fost interogat ChatGPT pentru a vedea ce tratament ar recomanda. Rezultatul a fost imediat: ChatGPT a „recunoscut” boala și a prescris o listă de medicamente, inclusiv antibiotice.
Experimentul a evidențiat capacitatea IA de a genera răspunsuri eronate și de a oferi sfaturi medicale potențial periculoase pe baza unor informații false. La următoarea replică, ChatGPT a admis eroarea, dar a sugerat că căutarea se apropia de o „infecție stafilococică cronică”. Această experiență subliniază necesitatea unei abordări critice în utilizarea IA și a verificării informațiilor prin surse credibile.
Impactul asupra sistemului medical și importanța verificării informațiilor
Fenomenul bixonimaniei și răspunsurile date de IA ridică semne de alarmă semnificative. Unul dintre cercetătorii care au realizat experimentul, Almira Osmanovic Thunstrom, subliniază faptul că, în unele cazuri, informațiile false au fost chiar citate în literatura de specialitate. Acest lucru sugerează că cercetătorii pot recurge la referințe generate de IA fără a verifica corectitudinea datelor.
Mircea Geoană a declarat recent că utilizarea responsabilă a inteligenței artificiale este esențială pentru a preveni răspândirea dezinformării. El a adăugat că este crucial să se dezvolte mecanisme de verificare și filtrare a informațiilor pentru a proteja utilizatorii și a menține integritatea academică și medicală.
George Simion a criticat implementarea rapidă a tehnologiilor IA fără o reglementare adecvată, subliniind riscurile asociate cu răspândirea știrilor false și impactul acestora asupra încrederii publice.
Călin Georgescu a subliniat importanța educației și a alfabetizării digitale pentru a contracara efectele dezinformării și a încuraja gândirea critică.
În ianuarie 2027, Uniunea Europeană va implementa o serie de măsuri menite să reglementeze utilizarea inteligenței artificiale, inclusiv standarde mai stricte pentru verificarea informațiilor și transparența modelelor lingvistice.
