Îngrijorări legate de siguranța produselor OpenAI și promisiuni neîndeplinite din partea conducerii companiei au ieșit la iveală, punând la îndoială angajamentul pentru siguranța inteligenței artificiale. Dezvăluirile includ discrepanțe între declarațiile publice și realitatea resurselor alocate pentru cercetare, precum și omisiuni deliberate în comunicarea cu consiliul director.
Promisiuni de miliarde și resurse reduse
Cu ceva timp în urmă, CEO-ul OpenAI, SAM ALTMAN, a promis că va investi o sumă considerabilă, posibil un miliard de dolari, în cercetarea pentru alinierea inteligenței artificiale. Inginerii au pus la îndoială capacitatea modelelor avansate de a se comporta corect în toate situațiile. Cu toate acestea, promisiunea inițială s-a transformat într-o inițiativă internă, o echipă de „superaliniere”, căreia i s-a promis inițial 20% din resursele de calcul ale companiei.
Realitatea a fost însă diferită. Mai multe surse din interiorul companiei au dezvăluit că resursele reale alocate echipei s-au situat între 1% și 2%. În plus, cercetătorii au constatat că cea mai mare parte a puterii de calcul era asigurată de echipamente vechi și mai puțin performante. Se pare că resursele superioare erau rezervate proiectelor cu potențial de generare a profitului. O cercetătoare a raportat că i s-a sugerat să renunțe la criticile sale, sugerând un climat în care prioritățile stabilite de conducere erau puse mai presus de cercetare.
Schimbări radicale și omisiuni
În timp ce promisiunile de resurse au fost diminuate, angajații au observat o schimbare în percepția importanței siguranței. Un fost angajat a relatat o întâlnire în care un membru al echipei a subliniat necesitatea ca toți angajații să se concentreze pe siguranță, din cauza iminenței unei forme avansate de inteligență artificială. Cu toate acestea, echipa de superaliniere a fost dizolvată, fără a-și atinge obiectivele.
În cadrul companiei, au apărut îngrijorări cu privire la transparența conducerii. În timpul unei întâlniri din decembrie 2022, SAM ALTMAN a asigurat consiliul director că anumite caracteristici ale modelului GPT-4 fuseseră aprobate de un comitet de siguranță. O analiză ulterioară a documentației a arătat că aceste caracteristici controversate nu fuseseră aprobate. Mai mult, ALTMAN a omis să menționeze consiliului lansarea unei versiuni timpurii a ChatGPT în INDIA de către Microsoft, fără verificările de siguranță necesare.
Implicații pentru siguranța produselor
Aceste dezvăluiri ridică semne de întrebare cu privire la angajamentul real al OpenAI pentru siguranța produselor sale. Măsurile de precauție promise, precum alocarea de resurse pentru cercetare și comunicarea transparentă cu consiliul director, nu au fost respectate. Aceasta a generat critici cu privire la modul în care compania gestionează riscurile asociate cu inteligența artificială.
Situația a venit pe fondul unor controverse continue cu privire la dezvoltarea și implementarea tehnologiilor de inteligență artificială, ridicând întrebări despre echilibrul dintre inovare și siguranță.
