Mākslīgā intelekta (AI) tērzēšanas robota Claude veidotāji apgalvo, ka ir notvēruši Ķīnas valdības sponsorētos hakerus, kuri izmanto šo rīku, lai veiktu automatizētus kiberuzbrukumus aptuveni 30 globālām organizācijām.
Anthropic sacīja, ka hakeri piemānīja tērzēšanas robotu, lai tas veiktu automatizētus uzdevumus, aizsedzot ar kiberdrošības izpēti.
Uzņēmums apgalvoja emuāra ierakstā šī bija “pirmā ziņotā AI organizētā kiberspiegošanas kampaņa”.
Guess skeptiķi apšauba šī apgalvojuma precizitāti un tā motīvu.
Anthropic paziņoja, ka uzlaušanas mēģinājumus atklājis septembra vidū.
Izliekoties par likumīgiem kiberdrošības darbiniekiem, hakeri tērzēšanas robotam uzdeva mazus automatizētus uzdevumus, kas, apvienojot tos, veidoja “ļoti sarežģītu spiegošanas kampaņu”.
Anthropic pētnieki sacīja, ka viņiem ir “liela pārliecība”, ka cilvēki, kas veica uzbrukumus, ir “Ķīnas valsts sponsorēta grupa”.
Viņi teica, ka cilvēki izvēlējās mērķus – lielus tehnoloģiju uzņēmumus, finanšu iestādes, ķīmiskās ražošanas uzņēmumus un valdības aģentūras -, taču uzņēmums nebūs precīzāks.
Pēc tam hakeri izveidoja nenoteiktu programmu, izmantojot Kloda kodēšanas palīdzību, lai “autonomi kompromitētu izvēlēto mērķi ar nelielu cilvēku iesaistīšanos”.
Antropiski apgalvo, ka tērzēšanas robots varēja veiksmīgi uzlauzt dažādas nenosauktas organizācijas, iegūt sensitīvus datus un kārtot tos, lai iegūtu vērtīgu informāciju.
Uzņēmums paziņoja, ka kopš tā laika ir aizliedzis hakeriem izmantot tērzēšanas robotu un ir informējis ietekmētos uzņēmumus un tiesībaizsardzības iestādes.
Taču Martins Zugeks no kiberfirmas Bitdefender sacīja, ka kiberdrošības pasaulei par šīm ziņām ir dalītas jūtas.
“Anthropic ziņojumā ir izteikti drosmīgi, spekulatīvi apgalvojumi, wager tas nesniedz pārbaudāmus draudu izlūkošanas pierādījumus,” viņš teica.
“Lai gan ziņojumā ir uzsvērta arvien lielāka problēma, mums ir svarīgi sniegt pēc iespējas vairāk informācijas par to, kā šie uzbrukumi notiek, lai mēs varētu novērtēt un definēt AI uzbrukumu patiesās briesmas.”
Anthropic paziņojums, iespējams, ir visievērojamākais piemērs tam, ka uzņēmumi apgalvo, ka sliktie aktieri izmanto AI rīkus, lai veiktu automatizētus uzlaušanu.
Tas ir tāds apdraudējums, par ko daudzi ir noraizējušies, taču arī citi AI uzņēmumi ir apgalvojuši, ka nacionālo valstu hakeri ir izmantojuši viņu produktus.
2024. gada februārī OpenAI publicēja emuāra ierakstu sadarbībā ar Microsoft kiberekspertiem, sakot, ka tas ir traucējis piecu ar valsti saistītu dalībnieku, tostarp dažiem no Ķīnas, darbību.
“Šie dalībnieki parasti centās izmantot OpenAI pakalpojumus, lai vaicātu atvērtā pirmkoda informāciju, tulkotu, atrastu kodēšanas kļūdas un veiktu pamata kodēšanas uzdevumus.” firma toreiz teica.
Anthropic nav pastāstījis, kā tā secināja, ka hakeri šajā jaunākajā kampaņā ir saistīti ar Ķīnas valdību.
Tas notiek tāpēc, ka daži kiberdrošības uzņēmumi ir kritizēti par pārmērīgu ažiotāžu gadījumiem, kad AI izmantoja hakeri.
Kritiķi saka, ka tehnoloģija joprojām ir pārāk smagnēja, lai to izmantotu automatizētiem kiberuzbrukumiem.
Novembrī Google kibereksperti izdeva pētniecisko darbu kas uzsvēra pieaugošās bažas par to, ka hakeri izmanto mākslīgo intelektu, lai radītu pavisam jaunus ļaunprātīgas programmatūras veidus.
Taču rakstā secināts, ka rīki nebija tik veiksmīgi, un tie bija tikai testēšanas fāzē.
Kiberdrošības nozare, tāpat kā AI bizness, vēlas teikt, ka hakeri izmanto tehnoloģiju, lai mērķētu uz uzņēmumiem, lai palielinātu interesi par saviem produktiem.
Savā emuāra ierakstā Anthropic apgalvoja, ka atbilde uz AI uzbrucēju apturēšanu ir AI aizstāvju izmantošana.
“Tās spējas, kas ļauj Klodu izmantot šajos uzbrukumos, arī padara to par būtisku kiberaizsardzībā,” apgalvoja uzņēmums.
Un Anthropic atzina, ka tā tērzēšanas robots ir pieļāvis kļūdas. Piemēram, tas veidoja viltotus pieteikšanās lietotājvārdus un paroles un apgalvoja, ka ir ieguvis slepenu informāciju, kas faktiski bija publiski pieejama.
“Tas joprojām ir šķērslis pilnībā autonomiem kiberuzbrukumiem,” sacīja Anthropic.












