Google otrdien paziņoja, ka tā mākslīgā intelekta (AI) aģents Large Sleep nesen ir izdarījis lielu kiberdrošības izrāvienu. Large Sleep, uz kiberdrošību orientēts AI aģents, kuru izstrādāja Google Deepmind un Google Mission Zero, varēja atklāt SQLite neaizsargātību uzņēmuma produktā. Mountain View bāzes tehnoloģiju gigants uzsvēra, ka drošības kļūda bija zināma sliktiem aktieriem un bija pakļauti riskam tikt izmantotam. Guess pirms kļūdu varēja izmantot, lai ielauztu tehnoloģiju giganta sistēmas, AI aģents šo problēmu atzīmēja, un tā tika nekavējoties labota.
Large Sleep AI aģents atklāj SQLite ievainojamību
A emuāra ierakststehnoloģiju gigants sīki aprakstīja lielā miega sasniegumus. Proti, AI aģents pirmo reizi tika atklāts 2024. gadā, un tas tajā pašā gadā varēja atklāt savu pirmo reālās pasaules neaizsargātību. Google apgalvo, ka kopš tā laika uz drošību orientētais aģents ir izdarījis vairākus šādus atklājumus. Tomēr līdz pavisam nesen tas neatrada nulles dienu ievainojamību (drošības trūkumus, kas pastāv, wager vēl ir jāizmanto vai jāizmanto).
Norādot laika grafiku vai produkta nosaukumu, Google uzsvēra, ka lielais miegs vienā no tā produktiem atklāja kritisko SQLite ievainojamību (CVE-2025-6965). AI aģents rīkojās, lai meklētu trūkumu, pamatojoties uz Google draudu izlūkošanas izlūkošanas ziņojumu.
Tehnoloģiju gigants apgalvoja, ka savlaicīgas identifikācijas dēļ uzņēmums to varēja labot, pirms sliktie aktieri to varēja izmantot. Proti, uzņēmums apgalvoja, ka šī ir pirmā reize, kad AI aģents spēja atrast šādu neaizsargātību reālās pasaules apstākļos. Tagad tiek izvietots Large Sleep, lai aizsargātu arī populāru atvērtā pirmkoda projektu drošību, sacīja uzņēmums, nenosaucot nevienu no šiem projektiem.
“Šie kiberdrošības aģenti ir spēļu mainītājs, atbrīvojot drošības komandas koncentrēties uz augstas sarežģītības draudiem, dramatiski palielinot to ietekmi un sasniedzot,” sacīja Google. Turklāt tehnoloģiju gigants arī publicēja savu pieeju AI aģentu veidošanai baltajā papīrā.
Proti, meklēšanas gigants arī paziņoja, ka tas ziedos datus no sava drošā AI ietvara (SAIF), lai palīdzētu mērogot Safe AI (Cosai) iniciatīvas aģentu AI, kibernoziegumu un programmatūras piegādes ķēdes drošības darbus. Cosai Google uzsāka sadarbībā ar nozares partneriem, lai nodrošinātu AI sistēmu drošu ieviešanu.