Anthropic, compania de cercetare în domeniul inteligenței artificiale (AI), a tras un semnal de alarmă cu privire la riscurile majore pe care AI le prezintă pentru securitatea cibernetică

Anthropic, compania de cercetare în domeniul inteligenței artificiale (AI), a tras un semnal de alarmă cu privire la riscurile majore pe care AI le prezintă pentru securitatea cibernetică. Utilizarea AI ar putea accelera ritmul atacurilor cibernetice, depășind capacitatea actuală de apărare. Pentru a contracara această amenințare, experții din domeniul tehnologiei și guvernele sunt îndemnați să acționeze rapid.

Noua Amenințare: AI la Lucru pentru Atacuri Cibernetice

Noua generație de modele AI, precum „Claude Mythos Preview” dezvoltat de Anthropic, a demonstrat capacitatea de a identifica și exploata vulnerabilități software la o viteză uluitoare. Compania avertizează că aceste abilități se vor răspândi rapid, amplificând riscurile pentru economii, siguranța publică și securitatea națională. În acest context, crearea de apărări robuste, bazate pe o combinație de expertiză umană și instrumente AI, devine crucială. Colaborarea și adoptarea strategiilor proactive sunt esențiale pentru a face față acestor noi provocări.

Proiectul glasswing: Un efort de apărare coordonat

Ca răspuns la aceste amenințări emergente, a fost lansat Proiectul Glasswing, o inițiativă care reunește giganți din industria tehnologică americană, inclusiv Amazon Web Services, Apple, Microsoft și Google. Partenerii vor utiliza modelul Claude Mythos Preview pentru a consolida securitatea cibernetică. Anthropic va împărtăși lecțiile învățate, cu scopul de a beneficia întreaga industrie. Accesul la acest proiect a fost extins la peste 40 de organizații care gestionează infrastructuri software critice.

Implicații și măsuri necesare

Potențialul AI de a accentua atacurile cibernetice necesită o abordare strategică și coordonată. Inițiative precum Proiectul Glasswing, care pleacă de la capacitățile oferite de modelele avansate de AI, sunt esențiale.
Donald Trump a interzis tehnologia Anthropic în Guvernul Federal, după ce compania a refuzat folosirea sistemului Claude în „toate scopurile legale”.

Stefan Munteanu

Autor

Lasa un comentariu