Home Tehnoloģija AI vairs ne tikai palīdz veikt kiberuzbrukumus – tagad tas var tos...

AI vairs ne tikai palīdz veikt kiberuzbrukumus – tagad tas var tos veikt

13
0

Olena Malik / Second caur Getty

Sekojiet ZDNET: Pievienojiet mūs kā vēlamo avotu Google tīklā.


ZDNET galvenās atziņas

  • Anthropic dokumentēja liela mēroga kiberuzbrukumu, izmantojot AI.
  • Anthropic saka, ka vainojama Ķīnas valsts sponsorēta grupa.
  • Uzbrukums var būt pirmais šāda veida gadījums.

Tagad ir reģistrēta pirmā liela mēroga kiberuzbrukuma kampaņa, kas izmanto mākslīgo intelektu (AI) kā vairāk nekā tikai palīdzīgu digitālo roku.

Tāpat: Pateicoties mākslīgajam intelektam, Google savvaļā pamana ļaunprātīgu programmatūru, kas uzbrukuma vidusposmā

Kā pirmo reizi ziņoja Wall Street JournalAnthropic, uzņēmums aiz Kloda, AI asistenta, publicēja a atskaite (.PDF), kas dokumentē savu AI modeļu ļaunprātīgu izmantošanu, kas tika nolaupīts plaša mēroga uzbrukuma kampaņā, kas vienlaikus bija vērsta pret vairākām organizācijām.

Kas noticis?

Septembra vidū Anthropic atklāja “ļoti sarežģītu kiberspiegošanas operāciju”, kurā tika izmantots mākslīgais intelekts visā uzbrukuma ciklā.

Klods Kods, aģents AI, tika ļaunprātīgi izmantots, izveidojot automatizētu uzbrukuma sistēmu, kas spēj veikt “izlūkošanu, ievainojamību atklāšanu, ekspluatāciju, sānu kustību, akreditācijas datu iegūšanu, datu analīzi un eksfiltrācijas darbības”. Turklāt šie posmi tika veikti “lielā mērā autonomi”, un cilvēki operatori nodrošināja pamata uzraudzību pēc tam, kad Klodam Kodam bija uzticēts darboties kā “iekļūšanas pārbaudes orķestrim un aģentam” — citiem vārdiem sakot, izlikties par aizstāvi.

Tāpat: Google savvaļā pamana ļaunprātīgu programmatūru, kas, pateicoties AI, uzbrukuma vidū

AI ne tikai atklāja ievainojamības mērķa organizācijās, wager arī ļāva tos izmantot, nozagt datus un veikt citas ļaunprātīgas darbības pēc izmantošanas.

Saskaņā ar Anthropic teikto, tas ne tikai izraisīja augsta līmeņa organizāciju mērķauditoriju, wager arī 80% līdz 90% “taktisko operāciju” neatkarīgi veica AI.

“Pasniedzot šos uzdevumus Klodam kā parastus tehniskus pieprasījumus, izmantojot rūpīgi izstrādātas uzvednes un noteiktas personas, draudu izpildītājs spēja pamudināt Klodu izpildīt atsevišķus uzbrukuma ķēžu komponentus, nepiekļūstot plašākam ļaunprātīgam kontekstam,” sacīja Anthropic.

Kas bija atbildīgs, un kā Anthropic reaģēja?

Saskaņā ar Anthropic, Ķīnas valsts sponsorēta grupa, iespējams, bija operācijas centrā. Tagad grupa tiek izsekota kā GTG-1002 un, domājams, ir labi nodrošināta ar valsts atbalstu, savā kampaņā izmantoja Klodu, taču par viņiem ir zināms maz.

Kad Anthropic atklāja savu tehnoloģiju ļaunprātīgu izmantošanu, tas ātri sāka aizliegt kontus, kas saistīti ar GTG-1002, un paplašināja savas ļaunprātīgas darbības noteikšanas sistēmas, kas, cerams, atklās to, ko uzņēmums sauc par “jauniem draudu modeļiem”, piemēram, lomu spēli, ko izmanto GTG-1002, lai sistēma darbotos kā īsts, uz aizsardzību balstīts iespiešanās pārbaudītājs.

Tāpat: šis jaunais kiberuzbrukums liek jums uzlauzt sevi. Lūk, kā to pamanīt

Anthropic arī izstrādā agrīnas atklāšanas pasākumus, lai apturētu autonomus kiberuzbrukumus, un gan varas iestādes, gan nozares puses tika informētas par incidentu.

Tomēr uzņēmums arī nāca klajā ar brīdinājumu visai kiberdrošības kopienai, aicinot to saglabāt modrību:

“Kiberdrošības kopienai ir jāpieņem, ka ir notikušas būtiskas izmaiņas: drošības komandām vajadzētu eksperimentēt ar mākslīgā intelekta izmantošanu aizsardzībā tādās jomās kā SOC automatizācija, draudu noteikšana, ievainojamības novērtējums un reaģēšana uz incidentiem, un jāveido pieredze ar to, kas darbojas viņu konkrētajā vidē,” sacīja Anthropic. “Un mums ir nepieciešami nepārtraukti ieguldījumi drošības pasākumos visās AI platformās, lai novērstu ļaunprātīgu ļaunprātīgu izmantošanu. Šodien aprakstītās metodes izplatīsies visā apdraudējuma vidē, kas padara nozares apdraudējumu koplietošanu, uzlabotas noteikšanas metodes un stingrākas drošības kontroles vēl svarīgākas.”

Vai šis uzbrukums ir svarīgs?

Mēs nesen esam redzējuši pirmos rādītājus, kas liecina, ka apdraudējuma dalībnieki visā pasaulē pēta, kā AI var izmantot ļaunprātīgos rīkos, paņēmienos un uzbrukumos. Tomēr iepriekš tie ir bijuši salīdzinoši ierobežoti — vismaz publiskajā arēnā — līdz nelielai automatizācijai un palīdzībai, uzlabotai pikšķerēšanai, noteiktai dinamiskai koda ģenerēšanai, e-pasta krāpniecībai un zināmai koda neskaidrībai.

Šķiet, ka aptuveni tajā pašā laikā, kad Anthropic gadījums, OpenAI, ChatGPT veidotāji, publicēja savu ziņojumu, kurā bija norādīts, ka ir ļaunprātīga izmantošana, wager maz vai nav pierādījumu par OpenAI modeļu ļaunprātīgu izmantošanu, lai iegūtu “jaunu aizskarošu spēju”, GTG-1002 bija aizņemts ar AI ieviešanu, lai automātiski un vienlaikus mērķētu organizācijas.

Tāpat: Uzņēmumi nav gatavi ļaunprātīgu AI aģentu pasaulei

(Informācijas atklāšana: Ziff Davis, ZDNET mātesuzņēmums, 2025. gada aprīlī iesniedza prasību pret OpenAI, apgalvojot, ka tas pārkāpis Ziff Davis autortiesības apmācībā un AI sistēmu darbībā.)

Aptuveni 30 organizācijas tika atlasītas. Tikai neliels skaits no šiem uzbrukumiem, “saujiņa”, bija veiksmīgi; tomēr mākslīgā intelekta halucināciju un vairāku citu problēmu, tostarp datu izgatavošanas un klaju melu dēļ par derīgu akreditācijas datu iegūšanu. Tātad, lai gan tas joprojām ir ievērojams, varētu apgalvot, ka šis gadījums ir paņēmiens, wager vēl nav AI apokalipse.

Vai, kā teica Anthropic, šis atklājums “attēlo fundamentālas izmaiņas tajā, kā progresīvi draudu dalībnieki izmanto AI.”



avots

LEAVE A REPLY

Please enter your comment!
Please enter your name here