Home Tehnoloģija Anthropic atbalsta Kalifornijas AI drošības likumprojektu, SB 53

Anthropic atbalsta Kalifornijas AI drošības likumprojektu, SB 53

12
0

Pirmdien, antropisks paziņots Oficiālais SB 53, Kalifornijas likumprojekta apstiprinājums no valsts senatora Skota Vienera, kas pasaules lielākajiem AI modeļa izstrādātājiem uzliktu pirmās valsts pārredzamības prasības. Anthropic apstiprinājums iezīmē retu un lielu uzvaru SB 53 laikā, kad tādas galvenās tehnoloģiju grupas kā Patērētāju tehnoloģiju asociācija (CTA) un Progresa kamera tiek lobēti pret likumprojektu.

“Lai gan mēs uzskatām, ka Frontier AI drošībai vislabāk tiek pievērsta federālā līmenī, nevis valsts noteikumu savstarpēji, spēcīgi AI sasniegumi negaidīs vienprātību Vašingtonā,” emuāra ierakstā sacīja Antropic. “Jautājums nav par to, vai mums ir nepieciešama AI pārvaldība – tas ir tas, vai mēs to pārdomāsim šodien vai reaģējoši rīt. SB 53 piedāvā stabilu ceļu uz bijušo.”

Ja tas tiek nodots, SB 53 Lai izstrādātu drošības ietvarus, kā arī atbrīvotu sabiedriskās drošības un drošības pārskatus, pirms izvietošanas jaudīgu AI modeļu izvietošanai izvietojot sabiedriskās drošības un drošības pārskatus, kā arī izvietojot jaudīgos AI modeļus, kā arī publiskot sabiedriskās drošības un drošības pārskatus, lai izstrādātu sabiedriskās drošības un drošības pārskatus. Likumprojekts arī izveidotu ziņotāju aizsardzību darbiniekiem, kuri nāk klajā ar bažām par drošību.

Senatora Vīnera likumprojekts īpaši koncentrējas uz AI modeļu ierobežošanu no “katastrofisku risku” veicināšanas, ko likumprojekts definē kā vismaz 50 cilvēku vai vairāk nekā miljarda dolāru zaudējumu nāvi. SB 53 koncentrējas uz AI riska galējo pusi-ierobežojot AI modeļus no izmantošanas, lai sniegtu ekspertu līmeņa palīdzību bioloģisko ieroču izveidē vai izmantot kiberuzbrukumos, nevis vairāk tuvāk kā AI Deepfakes vai Sycophancy.

Kalifornijas Senāts apstiprināja iepriekšējo SB 53 versiju, taču tam joprojām ir jāveic galīgais balsojums par likumprojektu, pirms tas var pāriet uz gubernatora galdu. Gubernators Gavins Newsoms līdz šim ir klusējis par likumprojektu, lai gan viņš veto senatora Veinera pēdējais AI drošības likumprojekts, SB 1047.

Rēķini, kas regulē robežas AI modeļa izstrādātājus, ir saskārušies ar ievērojamu atgriešanos gan no Silīcija ielejas, gan no Trumpa administrācijas, kas abi apgalvo, ka šādi centieni varētu ierobežot Amerikas jauninājumus sacīkstēs pret Ķīnu. Investori, piemēram, Andreessen Horowitz un Y Combinator, vadīja dažus no atgrūšanas pret SB 1047, un pēdējos mēnešos Trumpa administrācija vairākkārt ir draudējusi bloķēt valstis no AI regulēšanas pieņemšanas vispār.

Viens no visbiežāk sastopamajiem argumentiem pret AI drošības rēķiniem ir tāds, ka valstīm šī lieta būtu jāatstāj federālajām valdībām. Andreessena Horovica AI politikas vadītājs Matt Perault un galvenais juridiskais darbinieks Jai Ramaswamy publicēja a emuāra ieraksts Pagājušajā nedēļā apgalvojot, ka daudzi no šodienas štata AI rēķiniem riskē pārkāpt konstitūcijas tirdzniecības klauzulu – kas ierobežo štatu valdības no pieņemšanas likumiem, kas pārsniedz viņu robežas un pasliktina starpvalstu tirdzniecību.

TechCrunch pasākums

Sanfrancisko
|
2025. gada 27.-29. Oktobris

Tomēr antropiskais līdzdibinātājs Džeks Klarks apgalvo a Ievietojiet uz x ka tehnoloģiju nozare nākamajos gados izveidos jaudīgas AI sistēmas un nevar gaidīt, kamēr federālā valdība rīkosies.

“Mēs jau sen teicām, ka mēs dotu priekšroku federālajam standartam,” sacīja Klarks. “Wager, ja tas nav, tas rada stabilu AI pārvaldības plānu, ko nevar ignorēt.”

Openai galvenais globālo lietu virsnieks Kriss Lehane nosūtīja a burts Gubernatoram Newsom augustā apgalvojot, ka viņam nevajadzētu pieņemt nevienu AI regulējumu, kas izspiestu jaunuzņēmumus no Kalifornijas – lai gan vēstulē pēc vārda netika pieminēts SB 53.

Openai bijušais politikas pētījumu vadītājs Miles Brundage sacīja postenis Uz X, ka Lehane vēstule bija “piepildīta ar maldinošiem atkritumiem ap SB 53 un AI politiku kopumā”. Proti, SB 53 mērķis ir regulēt tikai pasaules lielākos AI uzņēmumus – it īpaši tos, kas radīja bruto ieņēmumus vairāk nekā 500 miljonu dolāru apmērā.

Neskatoties uz kritiku, politikas eksperti saka, ka SB 53 ir pieticīgāka pieeja nekā iepriekšējie AI drošības rēķini. Augusts sacīja Dens Ball, vecākais kolēģis Amerikas inovāciju fonda un bijušā Baltā nama AI politikas padomnieks emuāra ieraksts Ka viņš uzskata, ka SB 53 tagad ir laba iespēja kļūt par likumu. Balle, kas kritizēja SB 1047, sacīja, ka SB 53 projektētāji ir “parādījuši cieņu pret tehnisko realitāti”, kā arī “likumdošanas ierobežošanas mēru”.

Senators Vīners iepriekš sacīja, ka SB 53 lielā mērā ietekmē ekspertu politikas paneļa gubernators Newsom, kuru vadīja vadošais Stenfordas pētnieks un pasaules laboratorijas līdzdibinātājs Fei-Fei Li-, lai ieteiktu Kalifornijai par to, kā regulēt AI.

Lielākajai daļai AI laboratoriju jau ir kāda iekšējās drošības politikas versija, kas nepieciešama SB 53. Openai, Google Deepmind un Antropic regulāri publicē drošības pārskatus saviem modeļiem. Tomēr šiem uzņēmumiem nav saistoši neviens, guess viņi paši, tāpēc dažreiz viņi atpaliek no savām paša uzliktajām drošības saistībām. SB 53 mērķis ir noteikt šīs prasības kā valsts likumu ar finanšu sekām, ja AI laboratorija neatbilst.

Iepriekš septembrī Kalifornijas likumdevēji grozīts SB 53, lai noņemtu likumprojekta sadaļu, kas būtu prasījusi AI modeļa izstrādātājus revidēt trešajām personām. Tehnoloģiju uzņēmumi iepriekš ir cīnījušies ar šāda veida trešo personu auditiem citās AI politikas cīņās, apgalvojot, ka tās ir pārāk apgrūtinošas.

avots