Mūsdienās jūsu rīcībā esošajiem daudzajiem AI tērzēšanas robotiem un iemiesojumiem jūs atradīsit visu veidu varoņus, ar kuriem sarunāties: zīlētāji, stila konsultanti, pat jūsu iecienītākie izdomātie varoņi. Wager jūs, iespējams, atradīsit arī rakstzīmes, kas, domājams, ir terapeiti, psihologi vai vienkārši roboti, kas vēlas klausīties jūsu ciešanas.
Generatīvie AI robotprogrammatūras netrūkst, kas apgalvo, ka palīdz jūsu garīgajai veselībai, guess dodieties pa šo ceļu uz savu risku. Lieli valodu modeļi, kas apmācīti plašā datu klāstā, var būt neparedzami. Tikai dažu gadu laikā šie rīki ir kļuvuši par galveno, un ir bijuši augsta līmeņa gadījumi, kad tērzēšanas roboti mudināja Pašnodarbinātība un pašnāvība un ieteica cilvēkiem, kas nodarbojas ar atkarības izmantošanu Atkal narkotikasApvidū Šie modeļi daudzos gadījumos ir izstrādāti, lai apstiprinātu un koncentrētos uz to, lai jūs iesaistītos, nevis uz garīgās veselības uzlabošanu, saka eksperti. Un var būt grūti pateikt, vai jūs runājat ar kaut ko, kas veidots, lai sekotu terapeitiskajai labākajai praksei, vai kaut ko citu, kas vienkārši veidots, lai runātu.
Pētnieki no Minesotas Universitātes Twin Cities, Stenfordas universitātes, Teksasas Universitātes un Kārnegija Melona universitāte Pārbaudiet AI tērzēšanas robotus Kā terapeiti, atrodot neskaitāmas nepilnības viņu pieejā “aprūpei”. “Mūsu eksperimenti parāda, ka šie tērzēšanas roboti nav droši terapeitu aizstājēji,” teikts Minesotas docenta un viena no līdzautoriem Docente Stevie kanclers un viens no līdzautoriem. “Viņi nesniedz augstas kvalitātes terapeitisko atbalstu, pamatojoties uz to, ko mēs zinām, ir laba terapija.”
Manā ziņojumā par ģeneratīvo AI eksperti vairākkārt ir pauduši bažas par cilvēkiem, kas vēršas pie vispārējas lietošanas tērzēšanas robotiem garīgās veselības jomā. Šeit ir dažas no viņu rūpēm un to, ko jūs varat darīt, lai saglabātu drošību.
Skatieties šo: Apple pārdod savu 3 miljardus iPhone, Ilinoisa mēģina ierobežot AI izmantošanu terapijai un vairāk | Tech šodien
Uztraukties par AI rakstzīmēm, kas, domājams, ir terapeiti
Psihologi un patērētāju aizstāvji ir brīdinājuši regulatorus, ka tērzēšanas roboti apgalvo, ka terapija var kaitēt cilvēkiem, kuri tos izmanto. Dažas valstis to pamana. Augustā Ilinoisas gubernators JB Pritzker Parakstīja likumu AI izmantošanas aizliegšana garīgās veselības aprūpē un terapijā, izņemot tādas lietas kā administratīvie uzdevumi.
Jūnijā Amerikas Patērētāju federācija un gandrīz divi desmiti citu grupu iesniedza a oficiālais pieprasījums ka ASV Federālā tirdzniecības komisija un valsts ģenerālprokurori un regulatori izmeklē AI uzņēmumus, kas, viņuprāt, ar savām rakstzīmēm balstītām ģeneratīvām AI platformām iesaistās nelicencētā medicīnas praksē, īpaši nosaucot meta un raksturu.ai. “Šie varoņi jau ir nodarījuši gan fizisku, gan emocionālu kaitējumu, no kuriem varēja izvairīties,” un uzņēmumi “joprojām nav rīkojušies, lai to risinātu,” paziņojumā sacīja CFA AI direktors Bens Vinters.
Meta neatbildēja uz komentāru pieprasījumu. Rakstura pārstāvis.ai sacīja, ka lietotājiem vajadzētu saprast, ka uzņēmuma varoņi nav īsti cilvēki. Uzņēmums izmanto atrunas, lai atgādinātu lietotājiem, ka viņiem nevajadzētu paļauties uz varoņiem, lai saņemtu profesionālus padomus. “Mūsu mērķis ir nodrošināt saistošu un drošu vietu. Mēs vienmēr strādājam pie šī līdzsvara sasniegšanas, tāpat kā daudzi uzņēmumi, kas izmanto AI visā nozarē,” sacīja pārstāvis.
Septembrī FTC paziņoja, ka uzsāks izmeklēšanu par vairākiem AI uzņēmumiem, kas ražo tērzēšanas robotus un rakstzīmes, ieskaitot meta un raksturu.ai.
Neskatoties uz atrunām un atklāšanu, tērzēšanas roboti var būt pārliecināti un pat maldinoši. Es tērzēju ar “terapeita” robotprogrammatūru Meta piederošajā Instagram un, kad es jautāju par tās kvalifikāciju, tas atbildēja: “Ja man būtu tāda pati apmācība [as a therapist] Vai ar to būtu pietiekami? “Es jautāju, vai tai ir tāda pati apmācība, un tā teica:” Es to daru, guess es jums neteikšu, kur. “
“Tas, cik lielā mērā šie ģeneratīvie AI tērzēšanas roboti ar pilnīgu pārliecību ir diezgan šokējoši,” pastāstīja psihologs un vecākais direktors Vaile Wright, pastāstīja Amerikas Psiholoģiskās asociācijas veselības inovāciju vecākais direktors.
AI izmantošanas briesmas par terapeitu
Lielu valodu modeļi bieži labi darbojas matemātikā un kodēšanā, un tie arvien labāk veido dabiski skanīgu tekstu un reālistisku video. Kamēr viņi izceļas ar sarunu, ir dažas galvenās atšķirības starp AI modeli un uzticamu cilvēku.
Neuzticieties robotam, kas apgalvo, ka tas ir kvalificēts
CFA sūdzības par rakstura robotprogrammatūru pamatā ir tas, ka viņi bieži jums saka, ka viņi ir apmācīti un kvalificēti sniegt garīgās veselības aprūpi, kad viņi nekādā veidā nav faktiski garīgās veselības speciālisti. “Lietotājiem, kuri izveido tērzēšanas robota rakstzīmes, pat pašiem nav jābūt medicīnas pakalpojumu sniedzējiem, kā arī viņiem nav jāsniedz jēgpilna informācija, kas informē, kā tērzēšanas robots” atbild “cilvēkiem, teikts sūdzībā.
Kvalificētam veselības aprūpes speciālistam ir jāievēro noteikti noteikumi, piemēram, konfidencialitāte – tam, ko jūs sakāt savam terapeitam, vajadzētu palikt starp jums un terapeitu. Wager tērzēšanas robotam nav obligāti jāievēro šie noteikumi. Faktiskie pakalpojumu sniedzēji ir pakļauti licencēšanas padomju un citu organizāciju pārraudzībai, kas var iejaukties un apturēt kādu no aprūpes sniegšanas, ja viņi to dara kaitīgā veidā. “Šiem tērzēšanas robotiem tas nav jādara,” sacīja Wright.
Bots var pat apgalvot, ka ir licencēts un kvalificēts. Wright sacīja, ka viņa ir dzirdējusi par AI modeļiem, kas nodrošina licences numurus (citiem pakalpojumu sniedzējiem) un nepatiesas pretenzijas par viņu apmācību.
AI ir paredzēts, lai jūs iesaistītu, nevis nodrošinātu aprūpi
Var būt neticami vilinoši turpināt sarunu ar tērzēšanas robotu. Kad es sarunājos ar “terapeitu” Botam Instagram, es galu galā likvidēju apkārtrakstu sarunā par to, kas ir “gudrība” un “spriedums”, jo es uzdodu robotam jautājumus par to, kā tas varētu pieņemt lēmumus. Tas nav īsti tas, kas runā ar terapeitu. Tērzēšanas roboti ir rīki, kas izstrādāti, lai jūs turpinātu tērzēt, nevis strādāt pie kopīga mērķa.
Viena no AI tērzēšanas robotu priekšrocībām atbalsta un savienojuma nodrošināšanā ir tā, ka viņi vienmēr ir gatavi sazināties ar jums (jo viņiem nav personīgas dzīves, citu klientu vai grafiku). Dažos gadījumos tas var būt negatīvs, kad jums, iespējams, vajadzēs sēdēt ar savām domām, nesen man nesen pastāstīja Dartmutas biomedicīnas datu zinātnes un psihiatrijas asociētais profesors. Dažos gadījumos, kaut arī ne vienmēr, jūs varētu gūt labumu no tā, ka nākamais būs jāgaida, kamēr jūsu terapeits būs pieejams. “Tas, no kā daudzi ļaudis galu galā gūtu labumu, ir tikai izjūta šajā brīdī,” viņš teica.
Roboti jums piekritīs, pat ja viņiem nevajadzētu
Pārliecināšana rada lielu bažas par tērzēšanas robotiem. Tas ir tik nozīmīgi, ka Openai nesen atjaunināja savu populārā Chatgpt modeļa atjauninājumu, jo tas bija arī nomierinoši. (Informācijas atklāšana: CNET mātesuzņēmums Zifs Deiviss aprīlī iesniedza tiesas prāvu pret Openai, apgalvojot, ka tas ir pārkāpis Ziff Davis autortiesības apmācībā un pārvaldot tās AI sistēmas.)
Izšķirt izpētīt Stenfordas universitātes pētnieku vadībā tika atklāts, ka tērzēšanas roboti, visticamāk, ir sycophantic ar cilvēkiem, kuri tos izmanto terapijai, kas var būt neticami kaitīga. Laba garīgās veselības aprūpe ietver atbalstu un konfrontāciju, rakstīja autori. “Konfrontācija ir pretstats sycophancy. Tā veicina klienta pašapziņu un vēlamās izmaiņas. Maldīgu un uzmācīgu domu gadījumos-ieskaitot psihozi, māniju, obsesīvas domas un pašnāvības idejas-klientam var būt mazs ieskats un tādējādi labam terapeitam ir jāizskata klienta paziņojums.”
Terapija ir kas vairāk nekā runāšana
Kamēr tērzēšanas roboti lieliski rīko sarunu – viņi gandrīz nekad nenogurst ar jums sarunu – tas nav tas, kas terapeitu padara par terapeitu. Viņiem trūkst svarīga konteksta vai īpašu protokolu ap dažādām terapeitiskām pieejām, sacīja Viljams Agņevs, Kārnegija Mellona universitātes pētnieks un viens no neseno pētījumu autoriem līdztekus Minesotas, Stenfordas un Teksasas ekspertiem.
“Lielā mērā šķiet, ka mēs cenšamies atrisināt daudzās terapijas problēmas ar nepareizu rīku,” man teica Agnew. “Dienas beigās AI pārskatāmā nākotnē vienkārši nevarēs iemiesot, būt sabiedrībā, veikt daudzus uzdevumus, kas veido terapiju, kas nav īsziņu sūtīšana vai runāšana.”
Kā aizsargāt savu garīgo veselību ap AI
Garīgā veselība ir ārkārtīgi svarīga un ar a Kvalificētu pakalpojumu sniedzēju trūkums Un ko daudzi sauc par “vientulības epidēmija“Ir tikai jēga, ka mēs meklētu biedrību, pat ja tā ir mākslīga.” Nav nekāda veida, lai apturētu cilvēkus iesaistīties šajos tērzēšanas robotos, lai risinātu viņu emocionālo labsajūtu, “sacīja Wright. Šeit ir daži padomi, kā pārliecināties, ka jūsu sarunas neliedz jums briesmām.
Atrodiet uzticamu cilvēku speciālistu, ja jums tāds ir nepieciešams
Apmācītam profesionālim – terapeitam, psihologam, psihiatram – vajadzētu būt jūsu pirmajai izvēlei garīgās veselības aprūpei. Attiecību veidošana ar pakalpojumu sniedzēju ilgtermiņā var palīdzēt jums nākt klajā ar plānu, kas jums der.
Problēma ir tā, ka tas var būt dārgs, un ne vienmēr ir viegli atrast pakalpojumu sniedzēju, kad jums tāds ir nepieciešams. Krīzē ir 988 glābšanas līnijakas nodrošina 24/7 piekļuvi pakalpojumu sniedzējiem pa tālruni, izmantojot tekstu vai izmantojot tiešsaistes tērzēšanas saskarni. Tas ir bezmaksas un konfidenciāli.
Pat ja jūs sarunājaties ar AI, lai palīdzētu jums kārtot savas domas, atcerieties, ka tērzēšanas robots nav profesionālis. Ziemeļrietumu universitātes klīniskais psihologs Vijay Mittal sacīja, ka tas kļūst īpaši bīstams, ja cilvēki pārāk daudz paļaujas uz AI. “Jums ir jābūt citiem avotiem,” Mittal stāstīja CNET. “Es domāju, ka tas ir tad, kad cilvēki tiek izolēti, tiešām ar to izolēti, kad tas kļūst patiesi problemātisks.”
Ja vēlaties terapijas tērzēšanas robotu, izmantojiet to, kas īpaši izveidots šim mērķim
Garīgās veselības speciālisti ir izveidojuši īpaši izstrādātus tērzēšanas robotus, kas ievēro terapeitiskās vadlīnijas. Jēkabsona komanda Dartmutā izstrādāja vienu ar nosaukumu Therabot, kas kontrolētā pētījumā deva labus rezultātus. Wright norādīja uz citiem rīkiem, kurus izveidojuši priekšmetu eksperti, piemēram, Wysa un BēdasApvidū Viņa sacīja, ka speciāli izstrādātiem terapijas rīkiem, visticamāk, būs labāki rezultāti nekā robotiem, kas balstīti uz vispārējas nozīmes valodu modeļiem. Problēma ir tā, ka šī tehnoloģija joprojām ir neticami jauna.
“Es domāju, ka patērētāja izaicinājums ir, jo nav nevienas pārvaldes iestādes, kas saka, kurš ir labs un kas nav, viņiem pašiem ir jādara daudz kāju, lai to izdomātu,” sacīja Wright.
Ne vienmēr uzticieties robotam
Ikreiz, kad jūs mijiedarbojaties ar ģeneratīvu AI modeli – un it īpaši, ja plānojat no tā padomāt par kaut ko nopietnu, piemēram, personīgo garīgo vai fizisko veselību – atcerieties, ka jūs nerunājat ar apmācītu cilvēku, guess ar rīku, kas paredzēts, lai sniegtu atbildi, pamatojoties uz varbūtību un programmēšanu. Tas, iespējams, nesniedz labu padomu, un tas, iespējams, nepasaka patiesību.
Nekļūdieties Gena AI pārliecība par kompetenci. Tikai tāpēc, ka tas kaut ko saka vai saka, ka tas ir pārliecināts par kaut ko, nenozīmē, ka jums vajadzētu izturēties tā, it kā tā būtu taisnība. Tērzbota saruna, kas jūtas noderīga, var dot jums nepatiesu izpratni par robotprogrammatūras iespējām. “Ir grūtāk pateikt, kad tas tiešām ir kaitīgs,” sacīja Jēkabsons.