Modelul AI Mythos, dezvoltat de Anthropic, a fost accesat de utilizatori neautorizați, stârnind îngrijorări serioase în domeniul securității cibernetice. Potrivit unor informații recente, acești utilizatori ar fi reușit să pătrundă în sistem prin intermediul unui furnizor terț implicat în testare, folosind un forum online privat pentru a obține acces la tehnologii aflate în dezvoltare. Compania a confirmat investigarea situației, subliniind că nu există, momentan, dovezi care să indice compromiterea infrastructurii interne.
Acces neautorizat la modelul Mythos AI
Modelul Mythos AI este conceput pentru aplicații de securitate cibernetică la nivel enterprise. El face parte dintr-un program de testare restrâns, dedicat exclusiv companiilor selectate. Accesul neautorizat la acest model a fost facilitat de un grup de utilizatori prin intermediul unui furnizor terț implicat în testare. Acesta a fost posibil prin intermediul unui forum online privat, unde persoanele interesate de modelele AI nelansate public încearcă să obțină acces la tehnologii aflate în dezvoltare.
Sursele indică faptul că utilizatorii neautorizați nu doar că au reușit să acceseze sistemul, dar au și utilizat modelul în mod repetat după obținerea accesului. Această breșă de securitate ridică semne de întrebare cu privire la protecția datelor și la posibilele riscuri asociate cu astfel de incidente. Capacitățile avansate ale modelului în domeniul securității cibernetice, dacă ajung în mâini nepotrivite, pot genera riscuri fără precedent.
Reacția companiei Anthropic
Un purtător de cuvânt al Anthropic a declarat că firma analizează situația. Totuși, acesta a precizat că, pentru moment, nu există dovezi care să ateste compromiterea infrastructurii interne. „Investigăm informațiile apărute și, până acum, nu avem indicii că sistemele noastre au fost afectate”, a transmis compania. Modelul Mythos AI nu a fost lansat public din cauza capacităților sale avansate în domeniul securității cibernetice.
Modelul este testat în cadrul unui program intern, cunoscut sub numele de Project Glasswing, care implică un număr limitat de parteneri din domeniul tehnologiei și al sectorului financiar. Printre companiile care testează modelul se numără giganți precum Amazon, Apple și JPMorgan Chase. De asemenea, instituții financiare precum Goldman Sachs, Citigroup, Bank of America și Morgan Stanley ar fi implicate în testarea tehnologiei.
Implicații și viitoare măsuri de securitate
Modelul este utilizat în principal pentru identificarea vulnerabilităților informatice și consolidarea sistemelor de securitate. Accesul neautorizat la un astfel de model poate avea consecințe semnificative, inclusiv expunerea la riscuri cibernetice crescute. Compania continuă să investigheze situația și probabil va lua măsuri suplimentare de securitate pentru a preveni astfel de incidente în viitor.
Sursa: Mediafax
