OpenAI ir ieviesis Ārdvarkaa Ar GPT-5 darbināms autonoms drošības pētnieka aģents tagad pieejams privātajā beta versijā.
Aardvark, kas izstrādāts, lai līdzinātos tam, kā cilvēku eksperti identificē un novērš programmatūras ievainojamības, piedāvā daudzpakāpju, uz LLM balstītu pieeju nepārtrauktai, 24/7/365 koda analīze, ekspluatācijas validācijaun ielāpu paaudze!
Aardvark, kas tiek pozicionēts kā mērogojams aizsardzības rīks mūsdienu programmatūras izstrādes vidēm, tiek testēts iekšējās un ārējās kodu bāzēs.
OpenAI ziņo par augstu atsaukšanu un reālo efektivitāti, identificējot zināmās un sintētiskās ievainojamības, un agrīnā izvietošanā tiek novērstas iepriekš neatklātas drošības problēmas.
Aardvark nāk par papēžiem, kad OpenAI vakar izlaida gpt-oss-safeguard modeļus, paplašinot uzņēmuma neseno uzsvaru uz aģentu un politiku saskaņotām sistēmām.
Tehniskais projekts un ekspluatācija
Aardvark darbojas kā aģentu sistēma, kas nepārtraukti analizē pirmkoda repozitorijus. Atšķirībā no parastajiem rīkiem, kas balstās uz izplūdes vai programmatūras kompozīcijas analīzi, Aardvark izmanto LLM argumentācijas un rīku lietošanas iespējas, lai interpretētu koda uzvedību un identificētu ievainojamības.
Tas simulē drošības pētnieka darbplūsmu, lasot kodu, veicot semantisko analīzi, rakstot un izpildot testa gadījumus un izmantojot diagnostikas rīkus.
Tās course of notiek pēc strukturēta daudzpakāpju cauruļvada:
- 
Draudu modelēšana – Aardvark sāk savu analīzi, uzņemot visu koda krātuvi, lai ģenerētu draudu modeli. Šis modelis atspoguļo izsecinātos drošības mērķus un programmatūras arhitektūras dizainu. 
- 
Apņemšanās līmeņa skenēšana – Kad tiek veiktas koda izmaiņas, Aardvark salīdzina atšķirības ar repozitorija draudu modeli, lai noteiktu iespējamās ievainojamības. Tas arī veic vēsturisko skenēšanu, kad repozitorijs ir pirmo reizi pievienots. 
- 
Validācijas smilšu kaste – Atklātās ievainojamības tiek pārbaudītas izolētā vidē, lai apstiprinātu izmantojamību. Tas samazina viltus pozitīvu rezultātu skaitu un uzlabo ziņojuma precizitāti. 
- 
Automatizētā ielāpēšana – Sistēma integrējas ar OpenAI Codex, lai ģenerētu ielāpus. Pēc tam šie ierosinātie labojumi tiek pārskatīti un iesniegti, izmantojot izvilkšanas pieprasījumus izstrādātāja apstiprināšanai. 
Aardvark integrējas ar GitHub, Codex un parastajiem izstrādes cauruļvadiem, lai nodrošinātu nepārtrauktu, neuzbāzīgu drošības skenēšanu. Visi ieskati ir paredzēti, lai tos varētu klausīties cilvēkiem, ar skaidrām anotācijām un reproducējamību.
Veiktspēja un pielietojums
Saskaņā ar OpenAI datiem, Aardvark jau vairākus mēnešus ir darbojies iekšējās kodu bāzēs un ar atsevišķiem alfa partneriem.
Etalona testēšanā “zelta” krātuvēs, kur tika iesētas zināmas un sintētiskas ievainojamības,Aardvark identificēja 92% no kopējām problēmām.
OpenAI uzsver, ka tās precizitāte un zemais viltus pozitīvo rezultātu rādītājs ir galvenie atšķirības avoti.
Aģents ir izmantots arī atvērtā pirmkoda projektos. Līdz šim tas ir atklājis vairākas kritiskas problēmas, tostarp desmit ievainojamības, kurām tika piešķirti CVE identifikatori.
OpenAI norāda, ka visi atklājumi tika atbildīgi atklāti saskaņā ar nesen atjaunināto saskaņoto informācijas atklāšanas politiku, kas veicina sadarbību, nevis stingrus termiņus.
Praksē Aardvark ir atklājis sarežģītas kļūdas, kas pārsniedz tradicionālos drošības trūkumus, tostarp loģikas kļūdas, nepilnīgus labojumus un privātuma riskus. Tas liecina par plašāku lietderību ārpus drošības kontekstiem.
Integrācija un prasības
Privātās beta versijas laikā Aardvark ir pieejams tikai organizācijām, kas izmanto GitHub Cloud (github.com). OpenAI aicina beta testētājus uz pieraksties šeit tiešsaistē, aizpildot tīmekļa veidlapu. Dalības prasības ietver:
- 
Integrācija ar GitHub Cloud 
- 
Apņemšanās sadarboties ar Aardvark un sniegt kvalitatīvu atgriezenisko saiti 
- 
Piekrītu beta versijas noteikumiem un konfidencialitātes politikām 
OpenAI apstiprināja, ka beta versijas laikā Aardvark iesniegtais kods netiks izmantots tā modeļu apmācīšanai.
Uzņēmums arī piedāvā professional bono ievainojamības skenēšanu atsevišķām nekomerciālām atvērtā pirmkoda krātuvēm, atsaucoties uz savu nolūku veicināt programmatūras piegādes ķēdes veselību.
Stratēģiskais konteksts
Aardvark palaišana liecina par OpenAI plašāku virzību uz aģentu AI sistēmām ar domēna specifiskām iespējām.
Lai gan OpenAI ir vislabāk pazīstams ar saviem universālajiem modeļiem (piemēram, GPT-4 un GPT-5), Aardvark ir daļa no pieaugošās tendences.f specializēti AI aģenti izstrādāts, lai darbotos daļēji autonomi reālās pasaules vidēs. Faktiski tas tagad pievienojas diviem citiem aktīviem OpenAI aģentiem:
- 
ChatGPT aģents, kas tika atklāts 2025. gada jūlijā, kas kontrolē virtuālo datoru un tīmekļa pārlūkprogrammu un var izveidot un rediģēt parastos produktivitātes failus 
- 
Codex — iepriekš OpenAI atvērtā pirmkoda kodēšanas modeļa nosaukums, ko tas pārņēma un atkārtoti izmantoja kā tā jaunā GPT-5 variantu darbināmā AI kodēšanas aģenta nosaukumu, kas tika atklāts 2025. gada maijā. 
Taču uz drošību vērstam aģentam ir liela jēga, jo īpaši pieaugot prasībām pret drošības komandām.
2024. gadā vien tika ziņots par vairāk nekā 40 000 parastām ievainojamībām un ekspozīcijas (CVE), un OpenAI iekšējie dati liecina, ka 1,2% no visiem koda gadījumiem rada kļūdas.
Aardvark pozicionēšana kā “aizstāvis vispirms” AI atbilst tirgus vajadzībai pēc proaktīviem drošības rīkiem, kas cieši integrējas izstrādātāju darbplūsmās, nevis darbojas kā post-hoc skenēšanas slāņi.
OpenAI koordinētie informācijas izpaušanas politikas atjauninājumi vēl vairāk pastiprina tā apņemšanos ilgtspējīgi sadarboties ar izstrādātājiem un atvērtā pirmkoda kopienu, nevis akcentē ziņošanu par ievainojamību, kas saistīta ar pretrunīgumu.
Lai gan vakardienas oss-safeguard izlaidumā tiek izmantota domu ķēde, lai piemērotu drošības politikas secinājumu veikšanas laikā, Aardvark izmanto līdzīgus LLM argumentus, lai aizsargātu attīstošās kodu bāzes.
Kopā šie rīki norāda uz OpenAI pāreju no statiskiem rīkiem uz elastīgām, nepārtraukti adaptīvām sistēmām — viens koncentrējas uz satura regulēšanu, otrs uz proaktīvu ievainojamību noteikšanu un automatizētu ielāpu izstrādi reālās programmatūras izstrādes vidēs.
Ko tas nozīmē uzņēmumiem un CyberSec tirgum turpmāk
Aardvark pārstāv OpenAI iesaistīšanos automatizētā drošības izpētē, izmantojot aģentu AI. Apvienojot GPT-5 valodas izpratni ar Codex vadītām ielāpu un validācijas smilškastes, Aardvark piedāvā integrētu risinājumu modernām programmatūras komandām, kuras saskaras ar pieaugošu drošības sarežģītību.
Lai gan pašlaik ir ierobežota beta versija, agrīnie darbības rādītāji liecina par potenciālu plašākai ieviešanai. Ja tas izrādīsies efektīvs mērogā, Aardvark varētu veicināt izmaiņas tajā, kā organizācijas iekļauj drošību nepārtrauktas attīstības vidē.
Drošības vadītājiem, kuru uzdevums ir pārvaldīt incidentu reaģēšanu, draudu noteikšanu un ikdienas aizsardzību, jo īpaši tiem, kas darbojas ar ierobežotu komandas kapacitāti, Aardvark var kalpot kā spēku pavairotājs. Tā autonomais validācijas cauruļvads un cilvēku pārbaudāmie ielāpu priekšlikumi varētu racionalizēt šķirošanu un samazināt trauksmes nogurumu, ļaujot mazākām drošības komandām koncentrēties uz stratēģiskiem incidentiem, nevis manuālu skenēšanu un uzraudzību.
AI inženieri, kas ir atbildīgi par modeļu integrēšanu dzīvajos produktos, var gūt labumu no Aardvark spējas atklāt kļūdas, kas rodas smalku loģikas trūkumu vai nepilnīgu labojumu dēļ, jo īpaši strauji mainīgos izstrādes ciklos. Tā kā Aardvark uzrauga izpildes līmeņa izmaiņas un izseko tām pret draudu modeļiem, tas var palīdzēt novērst ievainojamības, kas tiek ieviestas ātras iterācijas laikā, nepalēninot piegādes termiņus.
Komandām, kas organizē AI izkliedētās vidēs, Aardvark smilškastes validācija un nepārtrauktas atgriezeniskās saites cilpas varētu labi saskaņot ar CI/CD stila konveijeriem ML sistēmām. Tā spēja pievienoties GitHub darbplūsmām padara to par saderīgu papildinājumu mūsdienu mākslīgā intelekta operāciju komplektiem, īpaši tiem, kuru mērķis ir integrēt stingras drošības pārbaudes automatizācijas cauruļvados bez papildu pieskaitāmām izmaksām.
Un datu infrastruktūras komandām, kas uztur kritiskos cauruļvadus un instrumentus, Aardvark LLM vadītās pārbaudes iespējas varētu piedāvāt papildu noturības līmeni. Ievainojamības datu orķestrēšanas slāņos bieži paliek nepamanītas, līdz tiek izmantotas; Aardvark notiekošais koda pārskatīšanas course of var atklāt problēmas agrāk izstrādes dzīves ciklā, palīdzot datu inženieriem uzturēt gan sistēmas integritāti, gan darbības laiku.
Praksē Aardvark atspoguļo izmaiņas tajā, kā drošības zināšanas var tikt izmantotas — ne tikai kā aizsardzības perimetrs, wager arī kā pastāvīgs, kontekstu apzinošs programmatūras dzīves cikla dalībnieks. Tās dizains liecina par modeli, kurā aizstāvjus vairs nesašaurina mērogs, wager tos papildina inteliģenti aģenti, kas strādā kopā ar viņiem.
 
             
	