Inteligența artificială, în pragul războiului: temeri legate de control și autonomie
Dezvoltarea și implementarea inteligenței artificiale (AI) în domeniul militar ridică semnale de alarmă în rândul experților în securitate, drept internațional și etică militară. Discuțiile nu se mai limitează la viteza cu care AI poate eficientiza operațiunile militare, ci se concentrează pe capacitatea umanității de a controla această tehnologie înainte ca aceasta să depășească limitele etice și legale.
AI, deja prezentă pe câmpul de luptă
Utilizarea AI în război este o realitate, nu o proiecție viitoare. Armata americană utilizează deja AI, inclusiv modele lingvistice extinse, pentru diverse funcții, de la logistică și sarcini administrative până la colectarea și analiza informațiilor și sprijin decizional în operațiuni militare. Printre exemple se numără sistemul Maven, o platformă care folosește AI pentru procesarea imaginilor și suport tactic, facilitând identificarea și prioritizarea țintelor.
Această tehnologie transformă fundamental viteza de operare a unei armate. Unde analiza imaginilor, filtrarea informațiilor și selecția țintelor erau făcute exclusiv de echipe umane, AI reduce drastic timpul necesar. În teorie, acest avans tehnologic ar putea duce la operațiuni mai precise și posibil la scăderea numărului de victime civile. Însă, experiența din conflictele recente, precum cele din Ucraina și Gaza, arată că prezența AI nu a diminuat costurile umane. Numeroși cercetători subliniază lipsa de dovezi care să ateste că AI reduce numărul de decese în rândul civililor și nici numărul deciziilor greșite de țintire.
Un aspect crucial este distincția dintre AI ca instrument de sprijin și AI cu autonomie letală. Prima categorie presupune că decizia finală este validată de om. Cea de-a doua deschide calea sistemelor capabile să identifice, să urmărească și să elimine ținte fără intervenție umană directă, generând cele mai mari îngrijorări.
Armele autonome: o sursă de panică în mediul academic și juridic
Posibilitatea integrării AI în arme letale complet autonome este un subiect controversat. Ideea ca dronele sau alte sisteme de luptă să decidă singure cine este inamic și cine nu ridică probleme majore de legalitate și moralitate. Legile umanitare internaționale impun o distincție clară între țintele militare și civili, iar experții intervievați în diverse studii susțin că sistemele autonome bazate pe modelele actuale de AI nu sunt suficient de fiabile pentru a respecta aceste obligații în mod constant.
Limitările tehnice se combină cu o problemă mai dificilă de gestionat: opacitatea. Modelele AI, în special cele de tip large language model, pot genera răspunsuri și recomandări fără a oferi o transparență reală asupra raționamentului intern. În mediul civil, acest lucru poate conduce la erori costisitoare, iar în război, poate însemna moartea. Tocmai de aceea, mulți experți consideră că scoaterea omului din procesul decizional este inacceptabilă din punct de vedere etic.
Riscul de escaladare accidentală a conflictelor este de asemenea ridicat. Înlocuirea judecății umane în deciziile militare cu sisteme automate poate crește viteza de reacție, reducând dramatic spațiul pentru reflecție și dezescaladare.
Având în vedere aceste aspecte, cercetători, juriști și politologi susțin interzicerea internațională a sistemelor letale complet autonome. De asemenea, sistemele care folosesc AI extensiv, chiar dacă nu sunt complet autonome, sunt considerate riscante și necesită reguli clare și mecanisme de control.
Conflictul dintre state și companiile de AI expune mizele
Relația dintre guverne și companiile private care dezvoltă aceste modele este o componentă importantă a dezbaterii actuale. Conflictul dintre Anthropic și Departamentul de Război al SUA ilustrează această tensiune. Compania a refuzat să elimine anumite garanții cu privire la utilizarea modelelor sale, argumentând că acestea nu ar trebui folosite pentru supraveghere internă în masă sau pentru ghidarea armelor complet autonome.
Acest episod arată că disputa a depășit sfera academică, fiind transpusă în contracte, condiții de utilizare și negocieri între stat și sectorul privat. Angajați ai companiilor ca Google și OpenAI au inițiat petiții, solicitând conducerii să nu permită utilizarea modelelor pentru supraveghere internă în masă sau pentru ucidere autonomă fără control uman.
În prezent, discuțiile la Geneva despre sistemele autonome letale și achiziția responsabilă de AI militar au loc, dar experții sunt pesimiști în ceea ce privește posibilitatea unui acord formal. Statele cu programe active de AI militar, inclusiv SUA, Israel și China, par să nu fie interesate de reguli mai stricte. În lipsa unor definiții clare, a unui consens și a unor reguli obligatorii, AI riscă să se extindă în război mai rapid decât poate fi controlată.
În luna aprilie a acestui an, secretarul general al ONU, António Guterres, a solicitat un tratat internațional care să interzică sistemele de arme autonome, subliniind urgența reglementării acestei tehnologii.
