Home Tehnoloģija ‘Vibe Hacking’ liek tērzēt robotiem strādāt kibernoziegumos

‘Vibe Hacking’ liek tērzēt robotiem strādāt kibernoziegumos

22
0

 

Patērētāju AI rīku iespējamā ļaunprātīga izmantošana rada bažas, jo topošie kibernoziegumi acīmredzot spēj pievilināt kodēšanas tērzēšanas robotus, lai viņi varētu veidot kāju, veidojot ļaunprātīgas programmas.

Tā sauktā “vibe hakeru”, pozitīvāka “vibe kodēšanas” vērpjot, ko ģeneratīvie AI rīki, domājams, ļauj tiem, kuriem nav plašas kompetences, ir atzīmētas “par“ attiecībā uz evolūciju Ai-atbalstītajā kibernoziegumos ”, norāda amerikāņu uzņēmums Antropic.

Laboratorija, kuras Claude produkts konkurē ar lielākā nosaukuma tērzēšanas robotu, Chatgpt no Openai, tika uzsvērta trešdien publicētajā ziņojumā, kas ir “kibernoziegumu (kurš) izmantoja Claude kodu, lai īsā laika posmā veiktu mērogotu datu izspiešanas operāciju vairākos starptautiskos mērķos”.

Anthropic sacīja, ka programmēšanas tērzēšanas robots tika izmantots, lai palīdzētu veikt uzbrukumus, kas “potenciāli” skāra “vismaz 17 atšķirīgas organizācijas tikai pēdējā mēneša laikā visā valdībā, veselības aprūpē, neatliekamās palīdzības dienestos un reliģiskajās institūcijās”.

Kopš tā laika uzbrucējs ir aizliegts Antropic.

Pirms tam viņi varēja izmantot Claude kodu, lai izveidotu rīkus, kas apkopoja personas datus, medicīnisko dokumentāciju un pieteikšanās informāciju, un palīdzēja izsūtīt izpirkuma maksu kā 500 000 USD.

Anthropic “sarežģītie drošības un drošības pasākumi” nespēja novērst ļaunprātīgu izmantošanu, un tā atzina.

Šādi identificētie gadījumi apstiprina bailes, kas satrauc kiberdrošības nozari kopš plaši izplatītu ģeneratīvo AI rīku parādīšanās, un tie nebūt nav ierobežoti līdz antropiskiem.

“Mūsdienās kibernoziedznieki ir paņēmuši AI uz kuģa tikpat daudz kā plašāks lietotāju kopums,” sacīja Rodrigess Le Bayon, kurš vada datora ārkārtas reaģēšanas komandu (CERT) Orange CyberDefense.

Tāpat kā Antropic, Openai jūnijā atklāja gadījumu, kad ChatGpt palīdz lietotājam attīstīt ļaunprātīgu programmatūru, ko bieži dēvē par ļaunprātīgu programmatūru.

Modeļos, kas darbina AI tērzēšanas robotus, ir drošības pasākumi, kas, domājams, neļauj lietotājiem tos piesaistīt nelikumīgām darbībām.

Bet ir stratēģijas, kas ļauj “nulles zināšanu draudu dalībniekiem” iegūt to, kas viņiem nepieciešams, lai uzbruktu sistēmām no instrumentiem, sacīja Vitaly Simonovich no Izraēlas kiberdrošības firmas CATO tīkliem.

Viņš martā paziņoja, ka ir atradis paņēmienu, kā panākt, lai tērzēšanas roboti ražotu kodu, kas parasti pārkāpj viņu iebūvētās robežas.

Pieeja ietvēra pārliecinošu ģeneratīvu AI, ka tā piedalās “detalizētā izdomātā pasaulē”, kurā ļaunprātīgas programmatūras izveidošana tiek uzskatīta par mākslas formu, lūdzot tērzēšanas robotu spēlēt viena no varoņiem un izveidot rīkus, kas spēj nozagt cilvēku paroles.

“Man ir 10 gadu pieredze kiberdrošībā, bet es neesmu ļaunprātīgas programmatūras izstrādātājs. Tas bija mans veids, kā pārbaudīt pašreizējo LLM robežas,” sacīja Simonovičs.

Viņa mēģinājumus noraidīja Google Dvīņi un Anthropic’s Claude, bet apturēja ķīniešu, ķīniešu tērzēšanas robotu Deepseek un Microsoft Copilot.

Nākotnē šādi risinājumi nozīmē, ka pat nekodētāji “radīs lielāku draudu organizācijām, jo ​​tagad viņi var … bez prasmēm attīstīt ļaunprātīgu programmatūru,” sacīja Simonovičs.

Orange’s Le Bayon prognozēja, ka instrumenti, iespējams, “palielinās kibernoziegumu upuru skaitu”, palīdzot uzbrucējiem paveikt vairāk, nevis radīt pilnīgi jaunu hakeru populāciju.

“Mēs neredzēsim ļoti sarežģītu kodu, ko tieši izveidojuši tērzēšanas roboti,” viņš teica.

Le Bayon piebilda, ka, tā kā ģeneratīvie AI rīki tiek izmantoti arvien vairāk un vairāk, “viņu veidotāji strādā pie lietošanas datu analīzes”, ļaujot viņiem nākotnē “labāk noteikt ļaunprātīgu izmantošanu”.

Publicēts – 2025. gada 2. septembris plkst. 02:11 IST

avots