Home Tehnoloģija Neregulārs nopelna 80 miljonus dolāru, lai nodrošinātu robežas AI modeļus

Neregulārs nopelna 80 miljonus dolāru, lai nodrošinātu robežas AI modeļus

22
0

 

Trešdien AI apsardzes firma neregulāra paziņoja par 80 miljoniem ASV dolāru jaunu finansējumu kārtā, kuru vadīja Sequoia Capital un Redpoint Ventures, piedaloties Wiz izpilddirektoram Assafam Rappaportam. Avots, kas ir tuvu darījumam, sacīja, ka apaļa vērtība ir neregulāra – 450 miljonu USD vērtībā.

“Mēs uzskatām, ka drīzumā daudz ekonomiskas aktivitātes notiks no mijiedarbības ar cilvēku pret cilvēkiem un ai-ai-ai mijiedarbību,” līdzdibinātājs Dans Lahavs sacīja Techcrunch: “Un tas sagraus drošības kaudzi vairākos punktos.”

Neregulārs, kas agrāk bija pazīstams kā modeļa laboratorijas, jau ir nozīmīgs spēlētājs AI novērtējumos. Uzņēmuma darbs ir minēts drošības novērtējumos Claude 3.7 sonetam kā arī Openai O3 un O4-Mini modeļiApvidū Kopumā uzņēmuma ietvars modeļa neaizsargātības noteikšanas spēju vērtēšanai (Dublēts Atrisināt) tiek plaši izmantots nozarē.

Kaut arī neregulārs ir paveicis ievērojamu darbu pie modeļu esošajiem riskiem, uzņēmums līdzekļu vākšanu, ņemot vērā kaut ko vēl ambiciozāku: pamanāmus riskus un izturēšanos, pirms tie atrodas savvaļā. Uzņēmums ir izveidojis sarežģītu modelētas vides sistēmu, ļaujot intensīvai modeļa pārbaudei pirms tā izlaišanas.

“Mums ir sarežģītas tīkla simulācijas, kurās mums ir AI gan uzbrucēja, gan aizstāvja loma,” saka līdzdibinātājs Omers Nevo. “Tātad, kad iznāk jauns modelis, mēs varam redzēt, kur aizsargā ir un kur viņi to nedara.”

Drošība ir kļuvusi par intensīvas uzmanības centrā AI nozarei, jo pierobežas modeļi rada iespējamos riskus, jo ir parādījušies vairāk risku. Openai šovasar pārvērtēja iekšējās drošības pasākumus, pievēršot uzmanību potenciālajai korporatīvajai spiegošanai.

Tajā pašā laikā AI modeļi arvien vairāk prasa programmatūras ievainojamības atrašanu – jaudu ar nopietnu nozīmi gan uzbrucējiem, gan aizstāvjiem.

TechCrunch pasākums

Sanfrancisko
|
2025. gada 27.-29. Oktobris

Neregulārajiem dibinātājiem tā ir pirmā no daudzajām drošības galvassāpēm, ko izraisa lielo valodu modeļu pieaugošās spējas.

“Ja Frontier Lab mērķis ir radīt arvien sarežģītākus un spējīgākus modeļus, mūsu mērķis ir nodrošināt šos modeļus,” saka Lahavs. “Bet tas ir kustīgs mērķis, tāpēc pēc būtības ir daudz, daudz, daudz vairāk darba, kas jādara nākotnē.”

avots