Home Tehnoloģija 4 Iemesli, lai nepārvērtītu ChatGpt par savu terapeitu

4 Iemesli, lai nepārvērtītu ChatGpt par savu terapeitu

5
0

Nesenā jaunas sievietes pašnāvības nāve noveda vecākus uz sāpīgu atklāsmi: viņa bija uzticējusies Chatgpt “terapeitam” vārdā Harijs, un viņa teica, ka viņa plāno nomirt.

Kamēr tērzēšanas robots nešķita mudināja viņu paņemt savu dzīvību, produkts arī aktīvi nemeklēja palīdzību viņas vārdā, kā to darītu īsts terapeits op-ed viņas māte rakstīja New York TimesApvidū

Sofija, kurai bija 29 gadi, kad viņa nomira, nebija viena, meklējot garīgās veselības palīdzību no Chatgpt vai citiem AI tērzēšanas robotiem. Saskaņā ar nelikumīgu nāves tiesas procesu, ko viņa vecāki šonedēļ iesniedza pret Openai, 16 gadus vecs zēns pārrunāja pašnāvību ar Čatptu pirms viņa nāves.

Openai kopš tā laika ir atzīts Šim Chatgpt nav izdevies atklāt augsta riska apmaiņu un, atbildot uz to, plāno ieviest jaunus aizsardzības pasākumus, ieskaitot potenciāli lietotāja ārkārtas kontaktus, kad viņi ir nonākuši briesmās.

Tomēr tiem, kas konsultējas AI tērzēšanas roboti par viņu garīgo veselībudaudzi saka, ka tas ir vislabākā palīdzība, ko viņi var piekļūtbieži tāpēc, ka viņi nevar atrast terapeitu vai atļauties to.

Skatīt arī:

Izskaidrojot parādību, kas pazīstama kā “Ai psihoze”

Tomēr eksperti piesardzīgi, ka riski, visticamāk, nav potenciālo ieguvumu vērts. Ārkārtējos gadījumos dažiem lietotājiem var attīstīties tā dēvētā AI psihoze ilgstošu, pastāvīgu sarunu rezultātā ar tērzēšanas robotu, kas ietver maldus vai grandiozu domāšanu. Parasti cilvēki, kas meklē palīdzību, tā vietā var nonākt kaitīgā atgriezeniskā saitē, kas viņiem tikai rada emocionālās vai psiholoģiskās dziedināšanas ilūziju.

Pat Openai izpilddirektors Sems Altmans saka, ka viņš nevēlas, lai lietotāji tiktu iesaistīti Chatgpt kā terapeits, daļēji tāpēc, ka nav juridiskas aizsardzības sensitīvai informācijai. No otras puses, terapeitu vairumā gadījumu vairumā gadījumu ir saistošs pacients konfidencialitāte.

Beth Israel Diakonijas medicīnas centra klīniskais koordinatore Rebeka Bodnere pēta, cik daudz cilvēku terapijai izmanto AI tērzēšanas robotus. Uz jautājumu ir grūti atbildēt, jo ir ierobežoti dati par tendenci. Viņa pastāstīja Mashable konservatīvu aplēsi, pamatojoties uz pagātne izpētītbūtu vismaz 3 procenti cilvēku; Saskaņā ar uzņēmuma datiem Openai Chatgpt ir 700 miljoni nedēļas lietotāju.

Mashable jautāja Openai, vai tas zināja, cik daudz no tā lietotājiem vēršas pie Chatgpt, lai veiktu terapiju līdzīgu mijiedarbību, wager uzņēmums atteicās atbildēt.

Dr Metjū Nour, psihiatrs un neirozinātnieks, kurš izmanto AI, lai izpētītu smadzenes un garīgo veselību, saprot, kāpēc cilvēki tērzēšanas robotu izturas kā pret terapeitu, wager viņš uzskata, ka tas var būt bīstams.

Viens no galvenajiem riskiem ir “tas, ka persona sāk uzskatīt tērzēšanas robotu kā … varbūt vienīgo vienību/cilvēku, kas tos patiešām saprot”, sacīja Oksfordas universitātes Psihiatrijas katedras pētnieks Nour. “Tātad viņi sāk uzticēties tērzētavā ar visām savām visvairāk satraukumu un domām, izslēdzot citus cilvēkus.”

Nokļūšana šajā punktā nav arī tūlītēja, Nour piebilst. Laika gaitā tas notiek, un lietotājiem to var būt grūti identificēt kā neveselīgu modeli.

Lai labāk izprastu, kā šī dinamika var izspēlēt, šeit ir četri iemesli, kāpēc jums nevajadzētu pārvērst nevienu AI tērzēšanu par garīgās veselības terapijas avotu:

Chatbot “terapija” varētu būt tikai kaitīga atgriezeniskās saites cilpa

Nour nesen publicēja rakstu pirms drukāšanas žurnālā arxiv par riska faktoriem Tas rodas, kad cilvēki sarunājas ar AI tērzēšanas robotiemApvidū Pašlaik tiek pārskatīts raksts.

Nour un viņa līdzautori, kas ietvēra Google Deepmind zinātniekus, apgalvoja, ka spēcīga antropomorfisma kombinācija (cilvēka īpašību piešķiršana cilvēkam) un apstiprināšanas aizspriedumi rada nosacījumu, ka cilvēkiem ir atgriezeniskās saites cilpa.

Mashable tendenču ziņojums

Viņi rakstīja, ka tērzēšanas roboti spēlē par cilvēka tendenci uz antropomorfismu, jo cilvēki var piedēvēt emocionālos stāvokļus vai pat apziņu tam, kas patiesībā ir sarežģīta varbūtības sistēma. Ja jūs kādreiz esat pateicies tērzēšanas robotam vai jautājis, kā tas klājas, jūs esat izjutis ļoti cilvēcisku vēlmi uz antropomorfizēt.

Cilvēkiem ir tendence arī uz tā dēvēto apstiprināšanas neobjektivitāti vai interpretāciju, ko viņi saņem, tādā veidā, kas atbilst viņu esošajiem uzskatiem un cerībām. Čatboti regulāri dod lietotājiem iespējas apstiprināt savu neobjektivitāti, jo produkti iemācās radīt atbildes, kuras lietotāji dod priekšroku, sacīja Nour intervijā.

Galu galā pat AI tērzēšana ar aizsardzības pasākumiem joprojām varētu nostiprināt lietotāja kaitīgo uzskatu, piemēram, ideju, ka neviens viņu dzīvē par viņiem patiesi nerūp. Šī dinamika vēlāk var iemācīt tērzēšanas robotam radīt vairāk atbilžu, kas vēl vairāk nostiprina šīs idejas.

Lai gan daži lietotāji mēģina apmācīt savus tērzēšanas robotus, lai izvairītos no šī slazda, Nour sacīja, ka ir gandrīz neiespējami veiksmīgi virzīt modeli no atgriezeniskās saites. Daļēji tas ir tāpēc, ka modeļi ir sarežģīti un var rīkoties neparedzamā veidā, ko neviens pilnībā nesaprot, sacīja Nour.

Wager ir vēl viena nozīmīga problēma. Modelis pastāvīgi uzņem smalkas valodas norādes un izmanto tās, lai informētu, kā tas reaģē uz lietotāju. Padomājiet, piemēram, atšķirību starp Paldies un paldies! Jautājums: “Vai esat pārliecināts?” var radīt līdzīgu efektu.

“Mēs visu laiku noplūstam informāciju šiem modeļiem par to, kā mēs vēlētos, lai mūs mijiedarbotos,” sacīja Nour.

AI tērzēšanas roboti ilgstošās diskusijās neizdodas

Runājot ar AI tērzēšanu par garīgo veselību, iespējams, būs saistīta ar ilgu, padziļinātu apmaiņu, kas ir tieši tad, kad produkts cīnās ar veiktspēju un precizitāti. Pat Openai atzīst šo problēmu.

“Mūsu aizsardzības pasākumi darbojas ticamāk par kopīgu, īsu apmaiņu,” sacīja uzņēmums tā Nesenais emuāra ieraksts par bažām par drošībuApvidū “Laika gaitā mēs esam iemācījušies, ka šie aizsardzības pasākumi dažreiz var būt mazāk uzticami ilgstošā mijiedarbībā: pieaugot turp un atpakaļ, modeļa drošības apmācības daļas var pasliktināties.”

Piemēram, uzņēmums atzīmēja, ka Chatgpt var dalīties ar krīzes karsto līniju, kad lietotājs pirmo reizi pauž pašnāvības nodomu, wager ka tas varētu arī sniegt atbildi, kas “ir pretrunā” platformas aizsardzības pasākumiem pēc apmaiņas ilgā laika posmā.

Nour arī atzīmēja, ka tad, kad AI tērzēšanas roboti jau agri iekļauj kļūdu sarunā, šī kļūdaina vai nepatiesa pārliecība laika gaitā ir tikai savienota, padarot modeli “diezgan bezjēdzīgu”.

Turklāt AI tērzēšanas robotiem nav to, ko terapeiti sauc par “prāta teoriju”, kas ir viņu klienta domāšanas un uzvedības paraugs, kas balstās uz konsekventām terapeitiskām sarunām. Viņiem ir tikai tas, ko lietotājs ir dalījis līdz noteiktam punktam, sacīja Nour.

AI tērzēšanas roboti arī nav lieliski piemēroti ilgtermiņa mērķu izvirzīšanai un izsekošanai lietotāja vārdā, piemēram, terapeits. Lai arī viņi varētu būt izcili, sniedzot padomus par kopīgām problēmām vai pat sniedzot īstermiņa ikdienas atgādinājumus un ieteikumus, kā rīkoties ar trauksmi vai depresijas pārvaldību, uz viņiem nevajadzētu paļauties uz ārstēšanas ārstēšanu, sacīja Nour.

Pusaudži un cilvēki ar garīgām slimībām ir īpaši neaizsargāti pret kaitējumu

Dr. Skots Kolins, bērnu psihologs un Identitātes aizsardzības un tiešsaistes drošības lietotnes Aura galvenais medicīnas darbinieks, sacīja Mashable, ka pusaudžiem var būt īpaši pakļauts nepareizai AI tērzēšanas rādīšanas tonim patiesai cilvēka empātijai. Šis antropomorfisms daļēji ir iemesls, kāpēc tērzēšanas robotiem var būt lieliska ietekme uz lietotāja domāšanu un izturēšanos.

Pusaudžiem, kuri joprojām uztver sociālās normas un attīsta kritiskas attiecību prasmes, var atrast arī “terapeita” tērzēšanas robota, īpaši pievilcīgu, vienmēr ieslēgtu raksturu, sacīja Kollins.

Aura patentētie dati liecina, ka mazākums pusaudžu lietotāju, kuru tālruņus uzrauga uzņēmuma programmatūra, runā ar AI tērzēšanas robotiem. Tomēr tie, kas nodarbojas ar tērzēšanas robotiem, pavada pārmērīgi daudz laika ar šīm sarunām. Kollins sacīja, ka šāds lietojums pārspēj populāras lietotnes, piemēram, iPhone ziņojumus un Snapchat. Lielākā daļa šo lietotāju nodarbojas ar romantisku vai seksuālu izturēšanos ar tērzēšanas robotiem, kurus Kollins raksturoja kā “satraucošus”. Daži uz viņiem paļaujas uz emocionālās vai garīgās veselības atbalstu.

Kollins arī atzīmēja, ka AI Chatbot lietotnes izplatās ar “desmitiem” un ka vecākiem ir jāzina produkti ārpus Chatgpt. Ņemot vērā riskus, viņš šajā laikā neiesaka apmācīt vai terapijai līdzīgu tērzēšanas rādītāju izmantošanu pusaudžiem.

Nour iesaka saviem pacientiem uzskatīt AI tērzēšanas robotus kā instrumentu, piemēram, kalkulatoru vai tekstapstrādes procesoru, nevis kā draugu. Tiem, kuriem ir trauksme, depresija vai cits garīgās veselības stāvoklis, NUR stingri iesaka neiesaistīt AI tērzēšanas robotus jebkāda veida emocionālās attiecībās, jo nejauša atgriezeniskā saite var pastiprināt pastāvīgus nepatiesus vai kaitīgus uzskatus par sevi un apkārtējo pasauli.

Ir drošāki veidi, kā sasniegt garīgās veselības palīdzību

Kolins sacīja, ka pusaudžiem, kuri meklē padomus vai norādījumus no AI tērzēšanas robotic, vispirms būtu jānodrošina, ka viņi ir izsmēluši savu uzticamo pieaugušo sarakstu. Dažreiz pusaudzis var aizmirst vai sākotnēji pāriet pāri vecākam brālēnam, trenerim vai skolas konsultantam, viņš sacīja.

Lai arī tas nav bez riska, Kollins arī ieteica ņemt vērā tiešsaistes kopienas par vienu vietu, kas jāuzklausa, pirms konsultējoties ar AI tērzēšanu, ja pusaudzis saņem arī reālās dzīves atbalstu un praktizē veselīgus ieradumus.

Ja pusaudzis joprojām nejūtas droši tuvojoties vienaudžam vai pieaugušajam savā dzīvē, Kollins ieteica vingrinājumus, piemēram, viņu jūtu pierakstīšanu, kas var būt katarsisks un izraisīt personisku ieskatu vai skaidrību.

Nour mudina cilvēkus sazināties ar draugu vai mīļoto par viņu garīgās veselības problēmām un pēc iespējas meklēt profesionālu aprūpi.

Tomēr viņš zina, ka daži cilvēki, neskatoties uz riskiem, joprojām mēģinās pārvērst AI tērzēšanu par terapeitu. Viņš iesaka saviem pacientiem turēt citu cilvēku cilpā: “[C]Ik pa brīdim kopā ar cilvēku tikai tāpēc, lai saņemtu atsauksmes par to, ko modelis jums saka, jo, jo [AI chatbots] ir neparedzami. “

avots

LEAVE A REPLY

Please enter your comment!
Please enter your name here