Home Tehnoloģija Chatgpt drīz pārbaudīs jūsu vecumu, mēģinot aizsargāt pusaudžu lietotājus

Chatgpt drīz pārbaudīs jūsu vecumu, mēģinot aizsargāt pusaudžu lietotājus

11
0

Elyse labāks picaro / zdnet

Sekojiet zdnet: Pievienojiet mūs kā vēlamo avotu Google.


ZDNET galvenie pārņemšana

  • Openai pievienos vecuma pārbaudi Chatgpt.
  • Pusaudžiem būs vairāk drošības pasākumu, kas apdraud kādu brīvību.
  • Pieaugušie saglabās iespēju izmantot tērzēšanas robotu, kā viņi vēlas.

Chatbot lietotāji arvien vairāk uzticas tādiem rīkiem kā Chatgpt par jutīgām vai personiskām lietām, ieskaitot garīgās veselības problēmas. Sekas var būt postošas: pusaudžu zēns paņēma savu dzīvību pēc tam, kad bija pavadījis stundas, tērzējot ar Chatgpt par pašnāvību. Rezultātā izrietošā tiesas prāva un citi pieaugošie spiedieni Openai ir pārvērtējuši sava tērzēšanas robota aizsardzības pasākumus ar izmaiņām, kuru mērķis ir aizsargāt pusaudžus, guess ietekmēs visus lietotājus.

Arī: kā cilvēki faktiski izmanto chatgpt vs claude – un ko mums saka atšķirības

A blogot Openai izpilddirektors Sems Altmans, kas tika ievietots otrdien, izpētīja pusaudžu drošības sistēmas ieviešanas sarežģītību, ievērojot sava uzņēmuma principus, kas konfliktē, nosverot brīvību, privātumu un pusaudžu drošību kā individuālus mērķus. Rezultāts ir jauna vecuma prognozēšanas modelis, kas mēģina pārbaudīt lietotāja vecumu, lai nodrošinātu, ka pusaudžiem ir drošāka pieredze – pat ja tas nozīmē, ka pieaugušajiem lietotājiem var būt jāpierāda arī viņi vecāki par 18 gadiem.

Jauna pusaudžu aizsardzība, ieskaitot vecuma prognozi

Altmans sacīja, ka Openai prioritāšu drošībai salīdzinājumā ar privātumu un brīvību ar papildu pasākumiem, kas īpaši paredzēti pusaudžiem, galvenokārt veidojot vecuma prognozes sistēmu, kas lēš lietotāja vecumu, pamatojoties uz to, kā viņi izmanto Chatgpt. Tērzbots ir paredzēts lietotājiem, kas ir 13 gadus veci vai vecāki, tāpēc pirmais verifikācijas solis būs atšķirīgs starp lietotājiem, kuri ir 13 līdz 18 gadus veci.

Arī: Openai ir jauns aģentu kodēšanas partneris jums tagad: GPT-5-CODEX

Nav skaidrs, kad uzņēmums ieviesīs vecuma pārbaudi, guess tas šobrīd ir darbos.

Ja rodas šaubas, Chatgpt piesaistīs lietotājus līdz 18 gadu vecumam, un dažos gadījumos un valstīs prasīs ID. Altmans atzīst, ka tas var rasties kā privātuma kompromiss pieaugušajiem, guess uzskata to par “cienīgu kompromisu”.

Pusaudžu versijā Chatgpt tiks apmācīts nerunāt koķetīgi, pat ja to pieprasīs, un nepiedalīsies diskusijā par pašnāvību jebkurā vidē. Ja nepilngadīgu lietotājam ir pašnāvības idejas, Openai mēģinās sazināties ar vecākiem vai iestādēm, ja tas nav pieejams. Uzņēmums nesen paziņoja par šīm politikas izmaiņām pēc incidenta aprīlī, kurā pusaudžu zēns, kurš stundām ilgi pavadīja tērzēšanu ar Chatgpt par pašnāvību, paņēma savu dzīvību.

Daudziem ideāla tērzēšanas robota pieredze palielinātu palīdzību un samazinātu iebildumus, vienlaikus saglabājot jūsu informāciju privātu un neiesaistoties ar kaitīgiem jautājumiem drošības interesēs. Tomēr, kā izpētīts Altmana emuārs, daudzi no šiem mērķiem ir pretrunā savā starpā, padarot Chatgpt pilnveidošanu īpaši izaicinošu, kad runa ir par pusaudžu lietošanu. Jaunā politika ir mēģinājums novērst līdzīgu traģēdiju nenotikšanu ar nepilngadīgajiem lietotājiem, pat ja tā samazina zināmu pieredzi citiem lietotājiem.

AI tērzēšanas roboti, privātums un drošības jautājumi

Cilvēki arvien vairāk izmanto AI tērzēšanas robotus, lai sarunātos ar privātiem vai jutīgiem jautājumiem, jo ​​viņi var rīkoties kā objektīvi uzticības pārstāvji, kuri var palīdzēt jums izprast sarežģītas tēmas, piemēram, medicīnisku diagnozi vai juridisku problēmu, vai vienkārši nodrošināt klausīšanās ausi. Jūlijā Altmans sacīja, ka tām pašām privātuma aizsardzības aizsardzībām, kas attiecas uz ārstu vai advokātu, būtu jāpiesakās sarunai ar AI. Uzņēmums atbalsta minēto aizsardzību ar politikas veidotājiem.

Arī: FTC pārbauda Openai, Meta un citus par AI pavadošo drošību bērniem

Pa to laiku Altmans emuārā rakstīja, ka Openai izstrādā “uzlabotas drošības funkcijas”, kas paredzēta, lai lietotāju informācija būtu privāta pat no Openai darbiniekiem. Protams, joprojām būtu daži izņēmumi, piemēram, kad automatizētās sistēmas identificē nopietnu ļaunprātīgu izmantošanu, ieskaitot draudus kāda cilvēka dzīvībai vai nodomam kaitēt citiem, kas prasītu cilvēku pārskatīšanu.

Kopumā šie pasākumi seko lielākai lietotāju tendencei, kas vēršas pie Chatgpt garīgās veselības problēmām vai kā terapeitam. Kaut arī Chatgpt un citi ģeneratīvie AI tērzēšanas roboti var būt labi sarunvalodisti, tie nav domāti medicīnas speciālista aizstāšanai, un viņiem nav atļauju to darīt. Stenfordas universitāte izpētīt Pat secināja, ka AI terapeiti var nepareizi lasīt krīzes, sniegt neatbilstošas ​​atbildes un pastiprināt aizspriedumus.

Tajā pašā laikā Federālā tirdzniecības komisija (FTC) izmeklē AI kompanjonus, kas tiek tirgoti jauniem lietotājiem un viņu iespējamām briesmām.

Lietotāju brīvības saglabāšana

Altmans arī izpētīja, kā saglabāt brīvību, uzsverot uzņēmuma vēlmi lietotājiem izmantot savus AI rīkus, cik viņi vēlas, ar “ļoti plašām drošības robežām”. Tā rezultātā uzņēmums turpināja atjaunināt lietotāju brīvības. Piemēram, Altmans saka, ka, lai gan tērzēšanas robots nav veidots tā, lai būtu koķets, lietotāji, kuri vēlas, lai tā būtu, var dot iespēju šo pazīmi.

Arī: Antropic saka, ka Klods palīdz emocionāli atbalstīt lietotājus – mēs neesam pārliecināti

Drastiskākos gadījumos, kaut arī tērzēšanas robotam nevajadzētu noklusēt norādīt norādījumus par pašnāvības izdarīšanu, ja pieaugušais lietotājs vēlas, lai Chatgpt attēlotu pašnāvību, lai palīdzētu uzrakstīt izdomātu stāstu, modelim vajadzētu palīdzēt pieprasījumā, sacīja Altmans.

“Izturieties pret mūsu pieaugušajiem lietotājiem kā pret pieaugušajiem,” viņš rakstīja.



avots

LEAVE A REPLY

Please enter your comment!
Please enter your name here