Sekojiet ZDNET: Pievienojiet mūs kā vēlamo avotu Google tīklā.
ZDNET galvenās atziņas
- Līderi apgalvo, ka AI varētu eksistenciāli apdraudēt cilvēkus.
- Ievērojami AI darbinieki līdzās 1300 citiem apstiprināja bažas.
- Sabiedrība ir vienlīdz nobažījusies par “superinteliģenci”.
Pārsteiguma ChatGPT izlaišana pirms nepilniem trim gadiem bija sākums AI sacensībām, kas kopš tā laika ir strauji paātrinājušās. Tagad nozares ekspertu grupa brīdina — un ne pirmo reizi —, ka mākslīgā intelekta laboratorijām vajadzētu palēnināties, pirms cilvēce nobrauc no klints.
Arī: ko Bils Geitss patiešām teica par AI, kas aizstāj kodēšanas darbus
A paziņojums trešdien publicēja Dzīves nākotnes institūts (FLI), bezpeļņas organizācija, kas koncentrējas uz eksistenciālo AI risku, apgalvo, ka “superintelekta” attīstība — mākslīgā intelekta nozares modējošs vārds, kas parasti attiecas uz hipotētisku mašīnu inteliģenci, kas var pārspēt cilvēkus, veicot jebkuru kognitīvu uzdevumu, ir saistīts ar eksistenciālu risku, un tāpēc tā ir jāaptur, līdz tiek izveidots drošs ceļš uz priekšu.
Stingrs brīdinājums
Neregulētā konkurence starp vadošajām mākslīgā intelekta laboratorijām superinteliģences veidošanā var izraisīt “cilvēku ekonomisko novecošanos un spēku zaudēšanu, brīvības, pilsoņu brīvību, cieņas un kontroles zaudēšanu, valsts drošības riskus un pat iespējamu cilvēku izzušanu”, raksta paziņojuma autori.
Viņi turpina apgalvot, ka aizliegums izstrādāt superinteliģentas mašīnas var tikt ieviests, kamēr nav (1) “plaša zinātniska vienprātība, ka tas tiks darīts droši un kontrolējami”, kā arī (2) “spēcīga sabiedrības dalība”.
Trešdienas vēlā rītā petīcijā bija vairāk nekā 1300 parakstu. Ievērojami parakstītāji ir Džefrijs Hintons un Jošua Bengio, abi 2018. gadā dalīja Tjūringa balvu (kopā ar kolēģi pētnieku Yann LeCun) par viņu novatorisko darbu neironu tīklos un tagad ir pazīstami kā divi no “AI krusttēviem”.
Arī: ko AI pionieris Jošua Bendžo dara tālāk, lai padarītu mākslīgo intelektu drošāku
Paziņojumu ir parakstījuši arī datorzinātnieks Stjuarts Rasels, Apple līdzdibinātājs Stīvs Vozņaks, Virgin Group dibinātājs sers Ričards Brensons, bijušais Trampa administrācijas galvenais stratēģis Stīvs Banons, politiskais komentētājs Glens Beks, autors Juvals Noa Harari un daudzas citas ievērojamas figūras tehnoloģiju, valdības un akadēmiskajās aprindās.
Un viņi nav vienīgie, kas šķiet noraizējušies par superinteliģenci. Svētdien FLI publicēts Aptaujas rezultāti, ko tā veica ar 2000 pieaugušajiem amerikāņiem, atklāja, ka 64% respondentu “uzskata, ka pārcilvēcisku AI nevajadzētu izstrādāt, kamēr nav pierādīts, ka tas ir drošs un kontrolējams, vai arī to nekad nevajadzētu attīstīt”.
Kas ir “superinteliģence”?
Ne vienmēr ir viegli novilkt skaidru robežu starp mārketingu un tehnisko leģitimitāti, it īpaši, ja runa ir par tik rosīgu tehnoloģiju kā AI.
Arī: ko Cukerberga “personīgā superinteliģences” pārdošanas piķis atstāj ārpusē
Tāpat kā mākslīgais vispārējais intelekts jeb AGI, arī “superinteliģence” ir neskaidri definēts termins, ko daži tehnoloģiju izstrādātāji nesen ir izvēlējušies, lai aprakstītu nākamo AI evolūcijas pakāpienu: vēl nerealizētu mašīnu, kas spēj darīt visu, ko spēj cilvēka smadzenes, tikai labāk.
Jūnijā Meta uzsāka iekšējo pētniecības un attīstības grupu, kas veltīta tehnoloģiju izveidei, ko tā sauc par Superintelligence Labs. Apmēram tajā pašā laikā Altmans publicēja personisku emuāra ierakstu, apgalvojot, ka superinteliģences parādīšanās ir nenovēršama. (FLI lūgumrakstā bija minēts 2015 emuāra ieraksts no Altmana, kurā viņš aprakstīja “pārcilvēcisko mašīnu inteliģenci” kā “iespējams, vislielāko draudu cilvēces tālākai pastāvēšanai.”)
Vai vēlaties vairāk stāstu par AI? Reģistrējieties AI līderu sarakstammūsu iknedēļas biļetens.
Terminu “superinteliģence” popularizēja Oksfordas filozofa Nika Bostroma 2014. gadā izdotā tāda paša nosaukuma grāmata, kas lielā mērā tika uzrakstīta kā brīdinājums par briesmām, kas rodas, veidojot pašpilnveidojošas AI sistēmas, kuras kādu dienu varētu izvairīties no cilvēka kontroles.
Eksperti joprojām ir noraizējušies
Bengio, Rasels un Vozņaks bija arī starp a. parakstītājiem 2023. gada atklātā vēstuleko arī publicējis FLI, kurā tika aicināts pārtraukt jaudīgu AI modeļu apmācību uz sešiem mēnešiem.
Tāpat: Google jaunākajā AI drošības pārskatā ir pētīts AI ārpus cilvēka kontroles
Lai gan šī vēstule saņēma plašu uzmanību plašsaziņas līdzekļos un palīdzēja rosināt publiskas diskusijas par AI drošību, impulss ātri izveidot un komercializēt jaunus AI modeļus, kas līdz tam laikam bija pilnībā apsteiguši tehnoloģiju nozari, galu galā pārspēja vēlmi ieviest plaša mēroga moratoriju. Joprojām trūkst arī nozīmīga AI regulējuma, vismaz ASV.
Šis impulss ir tikai pieaudzis, kad konkurence ir izplatījusies pāri Silīcija ielejas robežām un starptautiskajām robežām. Prezidents Donalds Tramps un daži ievērojami tehnoloģiju līderi, piemēram, OpenAI izpilddirektors Sems Altmans, AI sacīkstes ir veidojuši kā ģeopolitisku un ekonomisku konkurenci starp ASV un Ķīnu.
Tajā pašā laikā drošības pētnieki no ievērojamiem AI uzņēmumiem, tostarp OpenAI, Anthropic, Meta un Google, ir izdevuši neregulārus mazāka mēroga paziņojumus par to, cik svarīgi ir uzraudzīt noteiktus AI modeļu komponentus riskantai uzvedībai, joma attīstās.