Home Tehnoloģija Princis Harijs un Stīvs Banons apvieno spēkus pret superinteliģences attīstību

Princis Harijs un Stīvs Banons apvieno spēkus pret superinteliģences attīstību

6
0

Publisku personu grupa ir apvienojusies zem viena vēstījuma: lielajai tehnoloģiju pasaulei nevajadzētu steigties uz AI superinteliģenci.

Superinteliģence (pazīstama arī kā AGI) ir hipotētiska AI sistēma, kas varētu pārspēt cilvēka intelektu praktiski visos mērogos. Tas ir AI nozares svētais grāls, un lielie tehnoloģiju uzņēmumi ir iztērējuši neskaitāmas naudas un resursus, lai pirmie to sasniegtu. Piemēram, Meta šim mērķim ir veltīta vesela nodaļa un vairāku miljardu dolāru tēriņi. Meta izpilddirektors Marks Cukerbergs apgalvo, ka superinteliģence ir “redzeslokā”, taču citi eksperti ir skeptiskāki par laika grafiku vai pat iespēju, ka tehnoloģija kādreiz sasniegs šo sarežģītības līmeni.

Wager pat tie, kuri domā, ka superinteliģence ir sasniedzama, nepiekrīt AI virzībai uz to. Tas ietver vairāk nekā 1300 un arvien vairāk parakstītājuPaziņojums par superinteliģenci”, ko piedāvājis Way forward for Life institūts.

“Mēs aicinām aizliegt superinteliģences attīstību, to neatceļot, pirms nav panākta 1. plaša zinātniska vienprātība par to, ka tas tiks darīts droši un kontrolējami, un 2. spēcīga sabiedrības dalība,” teikts paziņojumā.

Abu šo nosacījumu pašlaik trūkst. Šīs vēstules parakstītāju vidū bija daudzi vadošie datorzinātnieki, paužot bažas par superinteliģences drošu attīstību. Galvenie no tiem bija Apple līdzdibinātājs Stīvs Vozņaks, Džefrijs Hintons un Jošua Bengio, divi zinātnieki, kuri tiek uzskatīti par “AI krusttēviem”, un Stjuarts Rasels, datorzinātņu profesors UC Berkeley, kurš tiek uzskatīts par vienu no MI pasaulē cienījamākajām personībām.

“Tas nav aizliegums vai pat moratorijs parastajā izpratnē. Tas ir vienkārši priekšlikums pieprasīt atbilstošus drošības pasākumus tehnoloģijai, kurai, pēc tās izstrādātāju domām, ir ievērojama iespēja izraisīt cilvēku izmiršanu. Vai tas ir pārāk daudz prasīt?” Rasels sacīja vēstulei pievienotajā publiskajā paziņojumā.

Ir arī ierobežota publiskā dalība. Saskaņā ar a Pew Research aptauja Pagājušajā nedēļā publicētā informācija liecina, ka sabiedrības bažas par mākslīgā intelekta pieaugošo izmantošanu ikdienas dzīvē ir lielākas par satraukumu visā pasaulē. Sadalot pa valstīm, amerikāņi bija visvairāk nobažījušies.

Parakstītāji nav pret AI; paziņojumā pat apsveicami daudzi ieguvumi, ko tas var sniegt sabiedrībai. Taču viņi saka, ka tehnoloģiju nozares steiga veidot superinteliģenci rada bažas “sākot no cilvēku ekonomiskās novecošanas un spēku zaudēšanas, brīvības, pilsoņu brīvību, cieņas un kontroles zaudēšanas līdz valsts drošības riskiem un pat iespējamu cilvēku izzušanu”.

Paziņojums ir pulcējis eklektisku cilvēku grupu no visām nozarēm un abām politiskās plaisas pusēm. Starp parakstītājiem ir labējo mediju pārstāvji un Trampa sabiedrotie Stīvs Banons un Glens Beks, kā arī Obamas laikmeta nacionālās drošības padomnieks un Baidena ēras Iekšpolitikas padomes direktore Sjūzena Raisa. Ir bijušie kongresmeņi no abām ejas pusēm, bijusī ANO augstā komisāre cilvēktiesību jautājumos Mērija Robinsone, pāvesta AI padomnieks, brālis Paolo Benanti un pat Saseksas hercogs un hercogiene, princis Harijs un Megana.

Parakstītāju vidū ir arī tādi aktieri kā Džozefs Gordons-Levits, kurš publicēja an op-ed pret Meta AI tērzēšanas robotiem ar New York Occasions, tādiem mūziķiem kā Will.I.am un Grimes un tādiem autoriem kā Yuval Noah Harari.

“Superinteliģence, visticamāk, sagrautu pašu cilvēka civilizācijas operētājsistēmu, un tas ir pilnīgi nevajadzīgs,” sacīja Harari. “Ja mēs tā vietā koncentrēsimies uz vadāmu AI rīku izveidi, lai šodien palīdzētu reāliem cilvēkiem, mēs varam daudz uzticamāk un drošāk realizēt AI neticamās priekšrocības.”

Tā nav pirmā vēstule, kurā sabiedrībā pazīstamas personas ir sapulcējušās, lai brīdinātu sabiedrību un nozari par mākslīgā intelekta radītajām briesmām. 2023. gadā AI vadītāju grupa, tostarp OpenAI izpilddirektors Sems Altmans un Anthropic izpilddirektors Dario Amodejs, parakstīja vēstuli, aicinot valdības visā pasaulē noteikt, ka mākslīgā intelekta izraisītā izzušanas riska mazināšana ir galvenā prioritāte tāpat kā pandēmijas un kodolkarš.

Citai 2023. gada atklātajai vēstulei, ko arī sagatavoja Dzīvības nākotnes institūts, bija vairāk nekā 33 tūkstoši parakstītāju, tostarp tādi cilvēki kā Elons Masks, un aicināja sešu mēnešu pauze AI eksperimentos, kas bija jaudīgāki par GPT-4 apmācības modeļi. Pauze tika ignorēta, un OpenAI izlaida GPT-4o pagājušajā gadā un GPT-5 šā gada sākumā. Abi modeļi šogad bija strīdu centrā, kad lietotāji sacēlās no skumjām pēc tam, kad GPT-5 aizstāja GPT-4o — modeli, kas tika kritizēts par lietotāju emocionālās paļaušanās un atkarību izraisošo uzvedību.

Jāatzīmē, ka šajā jaunajā paziņojumā par superinteliģenci ir iekļauti komentāri no ievērojamiem AI nozares cilvēkiem, kuri neparakstījās. Šie vārdi ir Altmans, Amodejs, Mustafa Suleimans (Microsoft AI izpilddirektors), Deivids Sakss (Baltā nama AI un kriptovalsts vehicles) un Elons Masks (jūs zināt, kas viņš ir).

AI nozare ievieš jauninājumus milzīgā ātrumā un steidzas uz superinteliģenci bez reglamentējošām margām. Pat daudzas vadošās figūras, kas nav parakstījušas paziņojumu par superinteliģenci, paši ir brīdinājušas par iespējamiem riskiem, kas ar to saistīti.

“Pārcilvēciskā mašīnu intelekta (SMI) attīstība, iespējams, ir lielākais drauds cilvēces pastāvēšanai,” sacīja OpenAI izpilddirektors Sems Altmans. emuāra ieraksts no 2015. gada.

avots

LEAVE A REPLY

Please enter your comment!
Please enter your name here