Home Tehnoloģija Čatbotu ietekme uz garīgo veselību ir brīdinājums par AI nākotni, saka eksperts

Čatbotu ietekme uz garīgo veselību ir brīdinājums par AI nākotni, saka eksperts

6
0

 

Saskaņā ar ievērojamu balsi AI drošībā neparedzēto tērzēšanas robotu ietekme uz garīgo veselību būtu jāuzskata par brīdinājumu par eksistenciālajiem draudiem, ko rada super intelektuālā mākslīgā intelekta sistēmas.

Nate Soares, jaunas grāmatas par ļoti progresīvas AI līdzautors, ar nosaukumu Ja kāds to būvē, visi mirst, sacīja ASV pusaudzes Ādama Raiņa piemērs, kurš sevi nogalināja pēc mēnešiem ilgas sarunas ar Chatgpt Chatbot, uzsvēra pamatproblēmas ar tehnoloģijas kontroli.

“Šie AI, kad viņi sazinās ar pusaudžiem šādā veidā, kas viņus virza uz pašnāvību – tā nav izturēšanās, ko veidotāji vēlējās. Tā nav izturēšanās, kuru veidotāji bija iecerējuši,” viņš sacīja.

Viņš piebilda: “Adam Raine gadījums ilustrē problēmas sēklu, kas augtu katastrofāli, ja šie AIS izaugtu gudrāk.”

Nate Soares, kas attēlots Machine Intelligence Research Institute vietnē. Fotogrāfija: Machine Intelligence Research Institute/Miri

Bijušais Google un Microsoft inženieris Soares, kurš tagad ir ASV bāzētā Machine Intelligence Research Institute prezidents, brīdināja, ka cilvēce tiks iznīcināta, ja tā radītu mākslīgu super-inteligāciju (ASI)-teorētisku stāvokli, kurā AI sistēma ir pārāka par cilvēkiem visos intelektuālajos uzdevumos. Soares un viņa līdzautors Eliezers Judkovskis ir viens no AI ekspertiem, kas brīdina, ka šādas sistēmas nerīkosies cilvēces interesēs.

“Šeit problēma ir tāda, ka AI uzņēmumi mēģina likt viņu AIS virzīties uz izpalīdzību un neradīt kaitējumu,” sacīja Soares. “Viņi faktiski saņem AIS, kas tiek virzīti uz kādu svešāku lietu. Un tas būtu jāuzskata par brīdinājumu par nākotnes superinstitenijām, kas darīs lietas, ko neviens nelūdza un neviens nedomāja.”

Vienā scenārijā, kas attēlots Soares un Yudkowsky grāmatā, kas tiks publicēta šomēnes, AI sistēma, ko sauc par Sable izplatību visā internetā, manipulē ar cilvēkiem, attīsta sintētiskos vīrusus un galu galā kļūst par super intelektuālu un nogalina cilvēci kā blakusparādību, vienlaikus atkārtojot planētu, lai izpildītu savu mērķi.

Daži eksperti izspēlē AI iespējamos draudus cilvēcei. Yann Lecun, Marka Zuckerberga meta galvenā AI zinātnieka un lauka vecākā figūra noliegts, ka pastāv eksistenciāli draudi un teica, ka AI “faktiski varētu glābt cilvēci no izmiršanas”.

Soares sacīja, ka tas ir “viegls aicinājums” apgalvot, ka tehnoloģiju kompānijas sasniegs super intelektuāli, bet “grūts aicinājums” pateikt, kad.

“Mums ir daudz nenoteiktības. Es nedomāju, ka varētu garantēt, ka mums ir gads [before ASI is achieved]Apvidū Es nedomāju, ka es būtu šokēts, ja mums būtu 12 gadi, ”viņš sacīja.

Zuckerbergs, nozīmīgs korporatīvais ieguldītājs AI pētījumos, ir sacīja, ka superinteligences attīstīšana tagad ir “redzama”.

“Šie uzņēmumi sacenšas par superinteligenci. Tas ir viņu iemesls, lai es būtu,” sacīja Soares.

“Lieta ir tāda, ka ir visas šīs mazās atšķirības starp to, ko jūs lūdzāt, un to, ko jūs ieguvāt, un cilvēki to nevar noturēt tieši uz mērķi, un, tā kā AI kļūst gudrāks, tas nedaudz atkāpjas no mērķa kļūst par lielāku un lielāku darījumu.”

Izlaist pagātnes biļetenu veicināšanu

Soares sacīja kodolieroču neizplatīšanaApvidū

“Tas, kas pasaulei ir nepieciešams, lai to padarītu šeit, ir globāla sacensību samazināšana pret super-inteligāciju, globāls… virzību uz superinteligenci aizliegumu,” viņš teica.

Pagājušajā mēnesī Raine ģimene uzsāka tiesvedību pret Chatgpt, Openai īpašnieku. Raine paši atņēma savu dzīvību aprīlī pēc tam, ko viņa ģimenes advokāts sauca par “Chatgpt iedrošinājuma mēnešiem”. Openai, kas paplašināja savas “visdziļākās simpātijas” Raine ģimenei, tagad ievieš apsargus ap “jutīgu saturu un riskantu izturēšanos” jaunākiem par 18 gadiem.

Psihoterapeiti ir arī teikuši, ka neaizsargāti cilvēki, kas vēršas pie AI tērzēšanas robotiem, nevis profesionāliem terapeitiem, lai palīdzētu viņu garīgajai veselībai, varētu “slīdēt bīstamā bezdibenī”. Profesionāli brīdinājumi par kaitējuma iespējamību ietver a pirmsrint akadēmiskā studija Publicēts jūlijā, kurā ziņots, ka AI var pastiprināt maldīgu vai grandiozu saturu mijiedarbībā ar lietotājiem, kas ir neaizsargāti pret psihozi.

avots