Silīcija ielejas vadītāji, tostarp Baltā nama mākslīgā intelekta un kriptovalstu automobiles Deivids Sakss un OpenAI stratēģijas vadītājs Džeisons Kvons, šonedēļ izraisīja satraukumu tiešsaistē par komentāriem par grupām, kas veicina AI drošību. Atsevišķos gadījumos viņi apgalvoja, ka daži mākslīgā intelekta drošības aizstāvji nav tik tikumīgi, kā šķiet, un darbojas vai nu savās interesēs, vai aizkulisēs miljardieri leļļu meistari.
AI drošības grupas, kas runāja ar TechCrunch, saka, ka Sacks un OpenAI apgalvojumi ir Silīcija ielejas jaunākais mēģinājums iebiedēt kritiķus, taču noteikti ne pirmais. 2024. gadā dažas riska kapitāla firmas izplatīja baumas, ka Kalifornijas mākslīgā intelekta drošības likumprojekts SB 1047 jaunuzņēmumu dibinātājus nosūtīs cietumā. Brūkingsas institūcija šīs baumas apzīmēja kā vienu no daudzajām “maldinošas ziņas” par likumprojektu, taču gubernators Gevins Ņūsoms galu galā uzlika veto tam.
Neatkarīgi no tā, vai Sacks un OpenAI vēlējās iebiedēt kritiķus, viņu rīcība ir pietiekami nobiedējusi vairākus AI drošības aizstāvjus. Daudzi bezpeļņas organizāciju vadītāji, ar kuriem TechCrunch sazinājās pagājušajā nedēļā, lūdza runāt ar nosacījumu, ka viņi paliks anonīmi, lai pasargātu savas grupas no atriebības.
Strīdi uzsver Silīcija ielejas pieaugošo spriedzi starp atbildīgu mākslīgā intelekta veidošanu un tā veidošanu, lai tas kļūtu par masīvu patēriņa produktu — šo tēmu es un mani kolēģi Kirstena Koroseka, Entonijs Ha un es izsaiņojam šīs nedēļas sarunā. Pašu kapitāls aplāde. Mēs arī iedziļināmies jaunajā Kalifornijā pieņemtajā AI drošības likumā, lai regulētu tērzēšanas robotus, un OpenAI pieejai erotikai pakalpojumā ChatGPT.
Otrdien Sakss rakstīja a publicēt X apgalvojot, ka Antropiskais — kam ir radīja bažas pār AI spēju veicināt bezdarbu, kiberuzbrukumus un katastrofālu kaitējumu sabiedrībai — ir vienkārši bailes pieņemt likumus, kas nesīs labumu pašam un noslīcinātu mazākus jaunuzņēmumus dokumentu kārtošanā. Anthropic bija vienīgā lielākā mākslīgā intelekta laboratorija, kas apstiprināja Kalifornijas Senāta likumprojektu 53 (SB 53), likumprojektu, kas nosaka drošības pārskatu sniegšanas prasības lielajiem AI uzņēmumiem un kas tika parakstīts likumā pagājušajā mēnesī.
Sakss atbildēja uz a vīrusu eseja no Anthropic līdzdibinātāja Džeka Klārka par viņa bailēm saistībā ar AI. Klārks sniedza eseju kā runu Curve AI drošības konferencē Bērklijā nedēļas iepriekš. Sēžot auditorijā, tas noteikti likās kā patiess tehnologa atrunām pret saviem produktiem, taču Sakss to tā neuztvēra.
Sakss teica, ka Anthropic izmanto “sarežģītu regulējuma uztveršanas stratēģiju”, lai gan ir vērts atzīmēt, ka patiesi sarežģīta stratēģija, iespējams, neietver federālās valdības ienaidnieku. In a sekojiet ziņai X, Sakss atzīmēja, ka Anthropic ir “sevi konsekventi pozicionējis kā Trampa administrācijas ienaidnieku”.
Techcrunch pasākums
Sanfrancisko
|
2025. gada 27.–29. oktobris
Arī šonedēļ OpenAI galvenais stratēģijas vadītājs Džeisons Kvons rakstīja a publicēt X paskaidrojot, kāpēc uzņēmums sūtīja pavēstes AI drošības bezpeļņas organizācijām, piemēram, Encode, bezpeļņas organizācijai, kas iestājas par atbildīgu AI politiku. (Pavēste ir juridiska kārtība, kurā tiek pieprasīti dokumenti vai liecības.) Kvons sacīja, ka pēc tam, kad Īlons Musks iesūdzēja OpenAI tiesā par bažām, ka ChatGPT veidotājs ir novirzījies no sava bezpeļņas misijas, OpenAI uzskatīja par aizdomīgu, kā vairākas organizācijas arī izvirzīja iebildumus pret tā pārstrukturēšanu. Encode iesniedza amicus īsziņu, lai atbalstītu Muska prasību, un citas bezpeļņas organizācijas publiski iebilda pret OpenAI pārstrukturēšanu.
“Tas radīja pārskatāmības jautājumus par to, kas tos finansēja un vai bija kāda koordinācija,” sacīja Kvons.
NBC Information šonedēļ ziņoja, ka OpenAI nosūtīja plašas pavēstes Encode un sešas citas bezpeļņas organizācijas kas kritizēja uzņēmumu, lūdzot viņu saziņu saistībā ar diviem no OpenAI lielākajiem pretiniekiem Musku un Meta izpilddirektoru Marku Cukerbergu. OpenAI arī lūdza Encode saziņu, kas saistīta ar tā SB 53 atbalstu.
Viens ievērojams AI drošības vadītājs teica TechCrunch, ka OpenAI valdības lietu komanda un tās pētniecības organizācija arvien vairāk dalās. Lai gan OpenAI drošības pētnieki bieži publicē ziņojumus, atklājot AI sistēmu riskus, OpenAI politikas vienība lobēja pret SB 53, sakot, ka tai drīzāk būtu vienoti noteikumi federālā līmenī.
OpenAI misijas koordinācijas vadītājs Džošua Ahiams runāja par viņa uzņēmumu, kas sūtīja pavēstes bezpeļņas organizācijām. publicēt X šonedēļ.
“Tas, kas, iespējams, ir dangers visai manai karjerai, es teikšu: tas nešķiet lieliski,” sacīja Ahiams.
Brendans Steinhauzers, AI drošības bezpeļņas Alliance for Safe AI izpilddirektors (ko OpenAI nav pavēstījis), sacīja TechCrunch, ka OpenAI šķiet pārliecināts, ka tā kritiķi ir daļa no Muska vadītas sazvērestības. Tomēr viņš apgalvo, ka tas tā nav, un liela daļa AI drošības kopienas ir diezgan kritiska pret xAI drošības praksi vai tās trūkumu.
“No OpenAI puses tas ir paredzēts, lai apklusinātu kritiķus, iebiedētu viņus un atrunātu citas bezpeļņas organizācijas darīt to pašu,” sacīja Steinhauzers. “Domāju, ka Saksam tas ir bažas [the AI safety] kustība pieaug, un cilvēki vēlas saukt šos uzņēmumus pie atbildības.
Šrirams Krišnans, Baltā nama vecākais politikas padomnieks mākslīgā intelekta jautājumos un bijušais a16z galvenais partneris, šonedēļ piedalījās sarunā ar sociālo mediju ziņa no viņa paša, aicinot AI drošības atbalstītājus no kontakta. Viņš mudināja AI drošības organizācijas runāt ar “cilvēkiem reālajā pasaulē, kas izmanto, pārdod un pieņem AI savās mājās un organizācijās”.
Nesenais Pew pētījums atklāja, ka aptuveni puse amerikāņu ir vairāk satraukti nekā satraukti par AI, taču nav skaidrs, kas tieši viņus satrauc. Vēl viens nesen veikts pētījums tika iedziļināts sīkāk un atklāja, ka amerikāņu vēlētājiem rūp vairāk darba zaudēšana un dziļi viltojumi nekā katastrofālie riski, ko rada AI, uz ko AI drošības kustība lielākoties ir vērsta.
Šo drošības problēmu risināšana varētu notikt uz AI nozares straujās izaugsmes rēķina — kompromiss, kas satrauc daudzus Silīcija ielejā. Tā kā AI investīcijas atbalsta lielu daļu Amerikas ekonomikas, bailes no pārmērīgas regulēšanas ir saprotamas.
Taču pēc gadiem ilga neregulēta AI progresa, šķiet, ka AI drošības kustība gūst reālu impulsu 2026. gadā. Silīcija ielejas mēģinājumi cīnīties pret grupām, kas vērstas uz drošību, var liecināt, ka tās strādā.