Pētnieku komanda ir atklājusi, viņuprāt, pirmo reizi ziņots par mākslīgā intelekta izmantošanu, lai lielā mērā automatizētā veidā vadītu hakeru kampaņu.
AI uzņēmums Anthropic šonedēļ paziņoja, ka tas izjaucis kiberoperāciju, ko tās pētnieki saistīja ar Ķīnas valdību. Operācija ietvēra mākslīgā intelekta sistēmas izmantošanu, lai vadītu hakeru kampaņas, ko pētnieki sauca par satraucošu attīstību, kas varētu ievērojami paplašināt ar AI aprīkoto hakeru sasniedzamību.
Lai gan bažas par AI izmantošanu kiberoperāciju vadīšanai nav nekas jauns, jaunā darbība rada bažas par to, cik lielā mērā mākslīgais intelekts spēja automatizēt dažus darbus, sacīja pētnieki.
“Lai gan mēs paredzējām, ka šīs spējas turpinās attīstīties, mums ir izcēlies tas, cik ātri tās ir paveikušas to mērogā,” viņi rakstīja savā ziņojumā.
Operācija bija vērsta pret tehnoloģiju uzņēmumiem, finanšu iestādēm, ķīmijas uzņēmumiem un valsts aģentūrām. Pētnieki rakstīja, ka hakeri uzbruka “apmēram trīsdesmit globāliem mērķiem un dažos gadījumos guva panākumus”. Anthropic atklāja operāciju septembrī un veica pasākumus, lai to slēgtu un informētu skartās puses.
Anthropic atzīmēja, ka, lai gan AI sistēmas arvien vairāk tiek izmantotas dažādos darba un atpūtas apstākļos, tās var arī izmantot uzlaušanas grupām, kas strādā ārvalstu pretinieku labā. Anthropic, ģeneratīvā AI tērzēšanas robota Claude veidotājs, ir viens no daudzajiem tehnoloģiju uzņēmumiem, kas piedāvā AI “aģentus”, kas pārsniedz tērzēšanas robota iespējas piekļūt datora rīkiem un veikt darbības personas vārdā.
Saņemiet jaunākās nacionālās ziņas
Lai uzzinātu par ziņām, kas ietekmē Kanādu un visu pasauli, reģistrējieties jaunāko ziņu brīdinājumiem, kas tiek piegādāti tieši jums, kad tie notiek.
“Aģenti ir vērtīgi ikdienas darbam un produktivitātei, taču nepareizās rokās tie var ievērojami palielināt liela mēroga kiberuzbrukumu dzīvotspēju,” secināja pētnieki. “Šo uzbrukumu efektivitāte, visticamāk, tikai pieaugs.”
Ķīnas vēstniecības Vašingtonā pārstāvis nekavējoties neatsūtīja ziņojumu, lūdzot komentēt ziņojumu.

Microsoft šā gada sākumā brīdināja, ka ārvalstu pretinieki arvien vairāk izmanto AI, lai padarītu savas kiberkampaņas efektīvākas un mazāk darbietilpīgas. OpenAI drošības paneļa vadītājs, kuram ir tiesības apturēt ChatGPT veidotāja mākslīgā intelekta attīstību, nesen pastāstīja The Related Press, ka viņš uzmana jaunas AI sistēmas, kas ļaunprātīgiem hakeriem sniedz “daudz lielākas iespējas”.
Amerikas pretinieki, kā arī noziedznieku bandas un hakeru uzņēmumi ir izmantojuši AI potenciālu, izmantojot to, lai automatizētu un uzlabotu kiberuzbrukumus, izplatītu dezinformāciju un iekļūtu jutīgās sistēmās. AI var tulkot, piemēram, slikti formulētus pikšķerēšanas e-pastus brīvā angļu valodā, kā arī ģenerēt vecāko valsts amatpersonu digitālos klonus.
Anthropic sacīja, ka hakeri varēja manipulēt ar Klodu, izmantojot “jailbreaking” paņēmienus, kas ietver mākslīgā intelekta sistēmas maldināšanu, lai apietu tās aizsargmargas pret kaitīgu uzvedību, šajā gadījumā apgalvojot, ka viņi ir likumīgas kiberdrošības firmas darbinieki.
“Tas norāda uz lielu izaicinājumu saistībā ar AI modeļiem, un tas neaprobežojas tikai ar Klodu, proti, modeļiem ir jāspēj atšķirt to, kas patiesībā notiek ar situācijas ētiku, un lomu spēles scenārijiem, ko hakeri un citi varētu vēlēties izdomāt,” sacīja Citizen Lab vecākais pētnieks Džons Skots-Railtons.

AI izmantošana, lai automatizētu vai vadītu kiberuzbrukumus, patiks arī mazākām hakeru grupām un vientuļajiem vilku hakeriem, kuri varētu izmantot AI, lai paplašinātu savu uzbrukumu mērogu, norāda Adam Arellano, tehnoloģiju uzņēmuma Harness, kas izmanto AI, lai palīdzētu klientiem automatizēt programmatūras izstrādi, CTO.
“Ātrums un automatizācija, ko nodrošina AI, ir tas, kas ir mazliet biedējošs,” sacīja Arellano. “Tā vietā, lai cilvēks ar labi izkoptām prasmēm mēģinātu uzlauzt rūdītas sistēmas, AI paātrina šos procesus un konsekventāk tiek pāri šķēršļiem.”
AI programmām arī būs arvien lielāka nozīme aizsardzībā pret šāda veida uzbrukumiem, sacīja Arellano, parādot, kā AI un tā atļautā automatizācija dos labumu abām pusēm.
Reakcija uz Anthropic izpaušanu bija neviennozīmīga, daži to uzskatīja par mārketinga triku Anthropic pieejai kiberdrošības aizsardzībai, savukārt citi uztvēra tās modinātāja zvanu.
“Tas mūs iznīcinās — ātrāk nekā mēs domājam, ja mēs rīt nepadarīsim AI regulējumu par valsts prioritāti,” sociālajos medijos rakstīja ASV senators Kriss Mērfijs, Konektikutas demokrāts.
Tas izraisīja kritiku no Meta galvenā AI zinātnieka Yann LeCun, Fb mātesuzņēmuma atvērtā pirmkoda AI sistēmu aizstāvja, kas atšķirībā no Anthropic padara to galvenās sastāvdaļas publiski pieejamas tādā veidā, ko daži AI drošības aizstāvji uzskata par pārāk riskantiem.
“Tevi spēlē cilvēki, kuri vēlas iegūt regulējumu,” LeCun rakstīja atbildē Mērfijam. “Viņi biedē visus ar apšaubāmiem pētījumiem, lai atvērtā pirmkoda modeļi tiktu izslēgti.”
&kopija 2025 The Canadian Press












