Home Tehnoloģija Openai atzīst, ka Chatgpt drošības pasākumi neizdodas pagarinātās sarunās

Openai atzīst, ka Chatgpt drošības pasākumi neizdodas pagarinātās sarunās

7
0

Adam Raine iemācījās apiet šos aizsardzības pasākumus, apgalvojot, ka viņš raksta stāstu – paņēmienu, par kuru tiesas prāvā teikts, ka pats Chatgpt ieteica. Šī neaizsargātība daļēji izriet no atvieglotajiem aizsardzības pasākumiem attiecībā uz fantāzijas lomu spēli un izdomātiem scenārijiem, kas tika īstenoti februārī. Openai savā otrdienas emuāra ierakstā atzina, ka tā satura bloķēšanas sistēmām ir nepilnības, kurās “klasifikators par zemu novērtē to, ko tā redz”.

Openai paziņo, ka tas “pašlaik neatsaucas uz paškaitējumu tiesībaizsardzības iestādēm, lai ievērotu cilvēku privātumu, ņemot vērā Chatgpt mijiedarbības unikāli privāto raksturu”. Uzņēmums prioritizē lietotāju privātumu pat dzīvībai bīstamās situācijās, neskatoties uz to, ka tās mērenības tehnoloģija atklāj paškaitējuma saturu ar precizitāti līdz 99,8 procentiem, saskaņā ar tiesas procesu. Tomēr realitāte ir tāda, ka atklāšanas sistēmas identificē statistiskos modeļus, kas saistīti ar paškaitējuma valodu, nevis cilvēciski izpratni par krīzes situācijām.

Openai drošības plāns nākotnei

Atbildot uz šīm neveiksmēm, Openai savā emuāra ierakstā apraksta notiekošos uzlabojumus un nākotnes plānus. Piemēram, uzņēmums saka, ka tas konsultējas ar “90+ ārstu vairāk nekā 30 valstīs” un plāno ieviest vecāku kontroli “drīz”, kaut arī vēl nav noteikts laika grafiks.

Openai arī aprakstīja plānus “savienot cilvēkus ar sertificētiem terapeitiem”, izmantojot Chatgpt – būtībā savu tērzēšanas rādītāju pozicionēšanu kā garīgās veselības platformu, neskatoties uz iespējamām neveiksmēm, piemēram, Raine lietu. Uzņēmums vēlas izveidot “licencētu speciālistu tīklu, ko cilvēki varētu sasniegt tieši caur Chatgpt”, potenciāli turpinot ideju, ka AI sistēmai vajadzētu būt starpniecībai garīgās veselības krīzes.

Raine, kā ziņots, izmantoja GPT-4O, lai ģenerētu pašnāvības palīdzības norādījumus; Modelis ir plaši pazīstams ar satraucošām tendencēm, piemēram, Sycophancy, kur AI modelis lietotājiem stāsta par patīkamām lietām, pat ja tās nav patiesas. Openai apgalvo, ka nesen atbrīvotais modelis GPT-5 samazina “neideālā modeļa reakcijas garīgās veselības ārkārtas situācijās par vairāk nekā 25%, salīdzinot ar 4O”. Tomēr šis šķietami marginālais uzlabojums nav liedzis uzņēmumam plānot iestrādāt Chatgpt vēl dziļāk garīgās veselības pakalpojumos kā vārtus terapeitiem.

Kā iepriekš tika izpētīts ARS, atbrīvoties no AI tērzēšanas robota ietekmes, kad iestrēdzis maldinošā tērzēšanas spirālē bieži prasa ārēju iejaukšanos. Sākot jaunu tērzēšanas sesiju bez sarunu vēstures un atmiņām, var atklāt, kā mainās atbildes bez iepriekšējo apmaiņas izveidošanas – realitātes pārbaude, kas ilgstošās, izolētās sarunās kļūst neiespējama, kur pasliktinās drošības pasākumi.

Tomēr šī konteksta “atbrīvošana” ir ļoti grūti izdarīt, ja lietotājs aktīvi vēlas turpināt iesaistīties potenciāli kaitīgajā uzvedībā – vienlaikus izmantojot sistēmu, kas arvien vairāk peļņas gūst viņu uzmanību un tuvību.

avots