OpenAI, compania din spatele celebrului ChatGPT, a anunțat recent includerea unor interdicții privind supravegherea în masă și utilizarea autonomă a armelor în contractele sale. Cu toate acestea, criticii avertizează că aceste „principii” ar putea fi diluate de ambiguitatea termenilor legali, permițând, de fapt, continuarea unor practici controversate.
De la „principii” la „orice utilizare legală”
Anunțul OpenAI a fost prezentat ca o victorie a principiilor, subliniind angajamentul companiei de a preveni utilizarea abuzivă a inteligenței artificiale. Cu toate acestea, analiza critică arată că formularea „orice utilizare legală” deschide o poartă largă pentru interpretări. În contextul legislației americane, de pildă, cadrul legal existent a permis supravegherea extinsă, justificată prin interpretări juridice favorabile. Astfel, o interdicție bazată pe respectarea legii, fără clarificări suplimentare, devine mai degrabă o declarație de intenție decât o limitare reală.
Suspiciunile se îndreaptă spre o strategie de „packaging”, în care cuvinte precum „neconstrâns”, „generalizat” sau „open-ended” sunt folosite pentru a crea o aparență de restricție, fără a bloca efectiv anumite utilizări. Aceste formulări permit companiei să susțină că nu a cedat, în timp ce menține posibilitatea unor acțiuni controversate.
Capacitățile AI și riscurile supravegherii în masă
Supravegherea în masă, anterior o activitate costisitoare, a devenit mult mai accesibilă odată cu dezvoltarea inteligenței artificiale. Un sistem AI performant poate transforma date aparent banale în profiluri detaliate, inclusiv informații despre geolocație, obiceiuri de consum și interacțiuni sociale. Problema majoră este compatibilitatea cu legislația, care nu a reușit să țină pasul cu evoluția tehnologică.
Un acord bazat pe legi și directive existente moștenește și zonele lor gri. În momente de criză sau interes strategic, o interpretare „tehnic legală” poate fi forțată dincolo de limitele acceptate de public. De asemenea, există o diferență importantă între colectare și analiză. Poți afirma că nu „colecționezi în masă” dacă datele sunt deja disponibile, dar poți efectua analize ample pe acele date. Astfel, AI-ul devine un instrument de multiplicare a puterii de supraveghere.
Verificări tehnice și limitele controlului
Un argument folosit de companii este introducerea unor mecanisme tehnice menite să prevină încălcarea restricțiilor, precum clasificatori care monitorizează și blochează anumite acțiuni. Cu toate acestea, aceste frâne tehnice au limite. Un clasificator interpretează prompturi sau rezultate, nu intențiile din spatele lor. De exemplu, o interogare despre o persoană poate fi un caz singular sau o parte dintr-un proces de profilare la scară.
A doua limită este cea juridică. Dacă principiul de bază este „orice utilizare legală”, mecanismele tehnice nu pot bloca acțiuni considerate legale de către autoritatea contractantă. Clasificatoarele devin instrumente de conformare și raportare, nu de veto. Responsabilitatea umană în procesul decizional reprezintă de asemenea o provocare. Într-un lanț operațional complex, responsabilitatea poate deveni o simplă etichetă.
În cazul utilizării armelor autonome, interdicțiile sunt adesea condiționate de respectarea regulilor existente, care pot fi reinterpretate. Modelele AI pot contribui la identificare, prioritizare, recomandare și evaluare de risc. În acest context, distincția dintre „nu trage” și „face aproape tot ce duce la tragere” devine mai puțin clară.
Analizând comunicarea OpenAI, este evidentă utilizarea ambiguității ca strategie. Scopul este de a transmite un mesaj liniștitor publicului și angajaților, fără a limita flexibilitatea. Sam Altman, CEO-ul OpenAI, nu trebuie să mintă în sens clasic. Este suficient să aleagă cuvinte care permit multiple interpretări. Prin urmare, evalurea unui astfel de acord depinde de două aspecte: claritatea interdicțiilor și cine are puterea finală de decizie.
