Conflictul dintre o companie de AI și Pentagon scoate la iveală dileme etice în utilizarea inteligenței artificiale
Un conflict major a izbucnit între compania Anthropic, specializată în inteligența artificială (AI), și Departamentul Apărării al SUA, punând sub semnul întrebării etica utilizării AI în domeniul militar. Disputa, alimentată de refuzul Anthropic de a permite folosirea tehnologiei sale pentru supraveghere în masă și arme autonome, a generat dezbateri aprinse despre responsabilitate și limitele utilizării AI în război.
Anthropic, evaluată la peste 350 de miliarde de dolari, a intrat sub lumina reflectoarelor. Fondată de foști cercetători OpenAI, compania a dezvoltat chatbotul Claude, o alternativă la ChatGPT. Acum, refuzul său de a colabora cu Pentagonul a stârnit reacții vehemente. Secretarul Apărării, Pete Hegseth, a acuzat Anthropic de „aroganță și trădare”, cerând încetarea oricărei relații cu compania de AI.
Refuzul de a colabora și reacțiile vehemente
Tensiunile au escaladat rapid. După ce Anthropic a refuzat să respecte termenul limită impus de Pentagon pentru un acord de utilizare a tehnologiei, consecințele nu au întârziat să apară. OpenAI, un alt jucător important în domeniul AI, a semnat un acord cu Departamentul Apărării, stârnind critici interne. Dario Amodei, CEO-ul Anthropic, a criticat public manevrele rivalului său, Sam Altman, despre care a spus că i-a adus „laude în stil dictatorial” fostului președinte Donald Trump.
În replică, Trump a criticat dur Anthropic într-un interviu acordat Politico. Ulterior, Departamentul Apărării a desemnat Anthropic ca fiind un risc pentru lanțul de aprovizionare, o măsură cu potențiale consecințe financiare severe. Acest conflict a evidențiat disensiunile dintre companiile de tehnologie și administrația Trump, pe fondul adoptării rapide a AI în operațiunile militare. Războiul din Orientul Mijlociu a devenit un test pentru companiile de AI, transformând scenariile teoretice în realități etice concrete.
Dileme etice și intenții contradictorii
Conflictul ridică semne de întrebare asupra contradicțiilor interne ale Anthropic. Compania a fost fondată pe ideea creării unui viitor sigur pentru AI, dar a încheiat parteneriate cu Pentagonul și cu compania Palantir, specializată în supraveghere. Anthropic a fost descrisă ca fiind preocupată de riscurile existențiale ale AI. Totuși, a renunțat la angajamentul inițial privind siguranța, invocând concurența acerbă din industrie.
În pofida angajamentului de transparență, compania și-a dezvoltat modelele prin acumularea de date, inclusiv prin scanarea și distrugerea unui număr mare de cărți fizice pentru antrenarea chatbotului Claude. Rezistența Anthropic la cerințele Pentagonului a fost văzută ca o victorie de imagine pentru companie. Claude a câștigat popularitate, în timp ce OpenAI a avut de suferit în urma acordului privind utilizarea tehnologiei.
Viitorul incert al colaborării dintre AI și armată
Implicațiile pe termen lung pentru Anthropic rămân incerte, având în vedere că unele companii din domeniul apărării, dar și Departamentul de Stat și Trezoreria SUA, au renunțat deja la utilizarea modelelor sale de AI. Administrația Trump intenționează să penalizeze Anthropic pentru această poziție. Compania a anunțat că va contesta în instanță desemnarea ca risc pentru lanțul de aprovizionare, iar CEO-ul Amodei ar fi reluat negocierile cu Departamentul Apărării pentru a găsi o soluție.
Mai mult, este de remarcat că Anthropic nu este singura companie care se confruntă cu astfel de dileme. Experții subliniază că tehnologiile cu dublă utilizare, care pot avea aplicații civile și militare, sunt surse constante de controverse. O tehnologie dezvoltată inițial pentru consumatori poate fi adaptată în scopuri militare, generând dezacorduri etice și provocări dificile.
În ultimele zile, Anthropic a anunțat că a deschis negocierile cu Departamentul Apărării pentru a detalia modul în care chatbotul Claude ar putea fi utilizat de armată, fără a compromite principiile etice ale companiei.
