Ochelarii inteligenți Ray-Ban AI, criticați pentru încălcarea vieții private și exploatarea muncii
Popularitatea rapidă a ochelarilor Ray-Ban AI, lansați de Meta, a generat un succes comercial semnificativ, cu vânzări estimate la șapte milioane de perechi în 2025. Cu toate acestea, ascensiunea rapidă a acestui gadget a stârnit îngrijorări serioase legate de confidențialitatea utilizatorilor și aspecte etice, dezvăluind o realitate mai puțin cunoscută. Detaliile apar într-o investigație comună realizată de ziarele suedeze Svenska Dagbladet și Göteborgs-Posten.
Dispozitivul, care permite utilizatorilor să înregistreze imagini și să analizeze mediul înconjurător prin intermediul inteligenței artificiale, ridică semne de întrebare cu privire la modul în care datele colectate sunt procesate și analizate. O parte considerabilă din datele înregistrate de ochelari ajung la contractori offshore, inclusiv în țări precum Kenya, pentru etichetare manuală. Acolo, lucrătorii sunt obligați să analizeze imagini extrem de sensibile și intime, expunând potențialul de încălcare a vieții private.
Contractori expuși la imagini intime și sensibile
Contractanții firmei Sama au raportat că au fost martori la înregistrări ale unor scene intime, inclusiv utilizatori în baie, dezbrăcându-se sau angajându-se în activități sexuale. Unul dintre cei care adnotează datele a subliniat lipsa de conștientizare în rândul utilizatorilor cu privire la amploarea datelor colectate. „Am văzut un videoclip în care un bărbat pune ochelarii pe noptieră și părăsește camera. La scurt timp după aceea, soția lui intră și se schimbă de haine”, a declarat acesta.
În ciuda caracterului invaziv al acestei munci, angajații se simt presați să continue, riscând concedierea. Termenii și condițiile Meta conferă companiei dreptul de a efectua revizuiri umane ale interacțiunilor AI. Criticii susțin că aceste detalii sunt ascunse în textul scris cu litere mici, limitând înțelegerea utilizatorilor.
Utilizatorii, puși în fața unei alegeri dificile
Utilizatorii care doresc să utilizeze funcțiile AI nu au altă opțiune decât să accepte acești termeni, pierzând controlul asupra datelor după încărcare. Kleanthi Sardeli, avocat al organizației non-profit None Of Your Business, a remarcat că, odată ce materialul este introdus în modele, utilizatorii pierd orice control practic. Această practică reflectă modul în care funcționează moderarea conținutului pe rețelele sociale, care se bazează pe forța de muncă din țările în curs de dezvoltare pentru a filtra imagini adesea traumatizante sau private.
Meta nu a emis încă o declarație oficială cu privire la aceste acuzații.
