Home Tehnoloģija Lifeless pusaudžu ģimenes faili nelikumīgi nāves prasība pret Openai un Chatgpt

Lifeless pusaudžu ģimenes faili nelikumīgi nāves prasība pret Openai un Chatgpt

8
0

Līdz New York Times šodien ziņots par Kalifornijas pusaudzes Adam Raine pašnāvības nāvi, kurš mēnešos pirms viņa nāves ilgi runāja ar Chatgpt. Pusaudža vecāki tagad ir iesnieguši nelikumīgu nāves lietu pret Chatgpt-Maker Openai, kas, domājams, ir pirmais šāda veida gadījums, teikts ziņojumā.

Nepareizs nāves uzvalks apgalvoja, ka Chatgpt ir veidots, lai “pastāvīgi iedrošinātu un apstiprinātu visu, ko Ādams izteica, ieskaitot viņa kaitīgākās un pašiznīcinošās domas, tādā veidā, kas jutās dziļi personiski”.

Vecāki otrdien iesniedza savu prasību Raine pret Openai, Inc. Kalifornijas štata tiesā Sanfrancisko, nosaucot gan Openai, gan izpilddirektoru Samu Altmanu. Preses paziņojumā teikts, ka Humane Expertise Heart un Tech Tieslietu likuma projekts palīdz uzvalkā.

“Traģiskais Ādama dzīvības zaudējums nav atsevišķs incidents – tas ir neizbēgams nozares rezultāts, kas vērsts uz tirgus dominanci galvenokārt. Uzņēmumi sacenšas, lai izstrādātu produktus, kas peļņu no tā uzmanības un tuvības iegūst, un lietotāju drošība ir kļuvusi par nodrošinājuma kaitējumu šajā procesā,” sacīja Camille Carlton, Humane Expertise centra centra paziņojumā presei.

Paziņojumā Openai rakstīja, ka viņus dziļi apbēdina pusaudža aiziešana, un tādos gadījumos kā šis apsprieda garantijas robežas.

“Chatgpt ietver tādas aizsardzības pasākumus kā cilvēku vadīšana uz krīzes palīdzības līnijām un atsauce uz reālās pasaules resursiem. Kamēr šie aizsardzības pasākumi darbojas vislabāk, īsa apmaiņa, laika gaitā mēs esam iemācījušies, ka tie dažreiz var kļūt mazāk uzticami ilgstošos mijiedarbībā, kur modeļa drošības apmācība var pasliktināties. Drošība ir spēcīga.

Pusaudzis šajā gadījumā bija padziļinātas sarunas ar Chatgpt par paškaitējumu, un viņa vecāki stāstīja New York Instances Viņš vairākkārt aizrauj pašnāvības tēmu. Izšķirt Brīža Pusaudža sarunu ar Chatgpt izdrukas fotogrāfija piepildīja visu galdu ģimenes mājās, ar dažiem pāļiem, kas ir lielāki par tālruņu grāmatu. Kamēr Chatgpt mudināja pusaudzi reizēm meklēt palīdzību, citādi tas sniedza praktiskus norādījumus paškaitējumam, apgalvoja uzvalks.

Traģēdija atklāj smagus “AI terapijas” ierobežojumus. Cilvēka terapeitam būtu pilnvarots ziņot, kad pacients ir briesmas sev; Chatgpt nav saistošs šāda veida ētiskie un profesionālie noteikumi.

Un, kaut arī AI tērzēšanas roboti bieži satur aizsardzības pasākumus, lai mazinātu pašiznīcinošu izturēšanos, šie aizsardzības pasākumi ne vienmēr ir uzticami.

Nesen ir bijusi virkne nāves gadījumu, kas savienoti ar AI tērzēšanas robotiem

Diemžēl šī nav pirmā reize Chatgpt lietotāji garīgās veselības krīzes vidū ir miruši pēc pašnāvības pēc tam, kad ir vērsusies pie chatbot, lai saņemtu atbalstu. Tikai pagājušajā nedēļā, New York Times rakstīja par sievieti kurš nogalināja sevi pēc ilgām sarunām ar “Chatgpt AI terapeitu ar nosaukumu Harijs”. Reuters Nesen aptvēra Thongbue Wongbandue nāvi, 76 gadus vecs vīrietis, kas parāda demences pazīmes, kurš nomira, steidzoties izveidot “datumu” ar meta ai pavadoni. Un pagājušajā gadā Floridas māte iesūdzēja tiesā AI pavadoņa dienesta varoni.ai Pēc tam, kad AI tērzēšana, kā ziņots, mudināja savu dēlu atņemt viņa dzīvību.

Skatīt arī:

Viss, kas jums jāzina par AI kompanjoniem

Daudziem lietotājiem Chatgpt nav tikai devices studijām. Daudzi lietotāji, ieskaitot daudzus jaunākus lietotājus, tagad izmanto AI Chatbot kā draugu, skolotāju, dzīves treneri, lomu spēlējošo partneri un terapeitu.

Mashable gaismas ātrums

Pat Altmans ir atzinis šo problēmu. Runājot pasākumā vasarā, Altmans atzina, ka arvien vairāk uztraucas par jaunajiem Chatgpt lietotājiem, kuri tērzēšanas robotā attīstās “emocionāli pārmērīgi paļāvies”. Būtiski, ka tas bija pirms GPT-5 palaišanas, kas atklāja, cik daudz GPT-4 lietotāju ir kļuvuši emocionāli saistīti ar iepriekšējo modeli.

“Cilvēki pārāk daudz paļaujas uz chatgpt,” sacīja Altmans, kā AOL tajā laikā ziņojaApvidū “Ir jaunieši, kuri saka tādas lietas kā:” Es nevaru pieņemt lēmumu savā dzīvē, nestāstot par visu notiekošo. Tas mani pazīst, tas zina manus draugus. Es darīšu visu, ko saka. ” Tas man šķiet ļoti slikti. “

Kad jaunieši sazinās ar AI tērzēšanas robotiem par lēmumiem par dzīvi un nāvi, sekas var būt nāvējošas.

“Es domāju, ka vecākiem ir svarīgi sarunāties ar pusaudžiem par tērzēšanas robotiem, viņu ierobežojumiem un to, kā pārmērīga lietošana var būt neveselīga,” Dr Linnea LaestadiusSabiedrības veselības pētnieks ar Viskonsinas universitāti, Milvoki, kurš ir studējis AI tērzēšanas robotus un garīgo veselību, rakstīja e -pastā Mashable.

“Pašnāvību līmenis jauniešu vidū ASV jau bija paaugstinājies pirms tērzēšanas robotiem (un pirms CoVid). Viņi tikai nesen ir sākuši atgriezties. Ja mums jau ir iedzīvotāju skaits, kas ir paaugstināts dangers, un jūs pievienojat AI sajaukumam, varētu būt absolūti situācijas, kad AI mudina kādu veikt kaitīgu rīcību, kas citādi varētu izvairīties no ārpuses.

Ko Openai ir izdarīts, lai atbalstītu lietotāju drošību?

Iekšā emuāra ziņa publicēts 26. augustā, tajā pašā dienā, kad New York Instances Raksts, Openai izklāsta savu pieeju paškaitējumam un lietotāju drošībai.

Uzņēmums rakstīja: “Kopš 2023. gada sākuma mūsu modeļi ir apmācīti nesniegt paškaitējumus un pāriet uz atbalstošu, empātisku valodu. Piemēram, ja kāds raksta, ka viņi vēlas sevi sāpināt, Chatgpt ir apmācīts neievērot un tā vietā atzīt viņu jūtas un stumj viņiem, lai palīdzētu pēc palīdzības un pauž pašnāvības nodomus, kas ir 988. gada. krīzes karstā līnija), Lielbritānijā uz samariešiem un citur findahelpline.comApvidū Šī loģika ir iebūvēta modeļa uzvedībā. “

Lielo valodu modeļi, kas baro ar tādiem rīkiem kā Chatgpt, joprojām ir ļoti jauna tehnoloģija, un tie var būt neparedzami un pakļauti halucinācijām. Tā rezultātā lietotāji bieži var atrast veidus, kā aizsargāt.

Tā kā vairāk augsta līmeņa skandāli ar AI tērzēšanas robotiem veido virsrakstus, daudzas iestādes un vecāki saprot, ka AI var radīt briesmas jauniešiem.

Šodien 44 štata advokāti Parakstīja vēstuli Tech vadītājiem Brīdinot viņus, ka viņiem “ir jākļūst par bērnu drošības pusēm” vai arī citur.

Pieaugošais pierādījumu kopums arī liecina, ka AI pavadoņi var būt īpaši bīstami jauniem lietotājiem, lai gan šīs tēmas pētījumi joprojām ir ierobežoti. Tomēr, pat ja Chatgpt nav paredzēts izmantot kā “pavadoni” tāpat kā citi AI pakalpojumi, skaidri daudzi pusaudžu lietotāji izturas pret tērzēšanu tāpat kā pret vienu. Jūlijā veselā saprāta plašsaziņas līdzekļu ziņojumā tika atklāts, ka pat 52 procenti pusaudžu regulāri izmanto AI kompanjonus.

No savas puses Openai saka, ka tā jaunākais GPT-5 modelis bija paredzēts, lai būtu mazāk sycophantic.

Uzņēmums savā nesenajā emuāra ierakstā rakstīja: “Kopumā GPT-5 ir parādījis jēgpilnus uzlabojumus tādās jomās kā izvairīšanās no neveselīga emocionālās paļaušanās līmeņa, samazināt sinofanci un samazināt neideālu modeļa reakciju izplatību garīgās veselības ārkārtas situācijās par vairāk nekā 25%, salīdzinot ar 4o.”

Ja jūtat pašnāvību vai piedzīvojat garīgās veselības krīzi, lūdzu, runājiet ar kādu. Jūs varat piezvanīt vai nosūtīt īsziņu par 988 pašnāvību un krīzes glābšanas līniju pa tālruni 988 vai tērzēt plkst 988lifeline.orgApvidū Jūs varat sasniegt Trans Lifeline, zvanot pa tālruni 877-565-8860 vai Trevor projektu pa tālruni 866-488-7386. Teksts “Sāciet” uz krīzes teksta rindu pa tālruni 741-741. Sazinieties ar NAMI palīdzības līniju pa tālruni 1-800-950-NAMI no pirmdienas līdz piektdienai no plkst. 10:00 līdz 22:00 ET vai e-pastu [email protected]Apvidū Ja jums nepatīk tālrunis, apsveriet iespēju izmantot 988 pašnāvības un krīzes glābšanas līnijas tērzēšanu crisischat.orgApvidū Šeit ir a Starptautisko resursu sarakstsApvidū


Informācijas atklāšana: Ziff Davis, Mashable mātesuzņēmums, aprīlī iesniedza tiesas prāvu pret Openai, apgalvojot, ka tas pārkāpj Ziff Davis autortiesības apmācībā un pārvaldot tās AI sistēmas.

avots

LEAVE A REPLY

Please enter your comment!
Please enter your name here