Home Tehnoloģija Antropic saka, ka Klods palīdz emocionāli atbalstīt lietotājus – mēs neesam pārliecināti

Antropic saka, ka Klods palīdz emocionāli atbalstīt lietotājus – mēs neesam pārliecināti

2
0

 

 

Ričards Drurijs/Getty Images

Arvien vairāk, a vidū vientulības epidēmija un Strukturālie šķēršļi garīgās veselības atbalstamCilvēki vēršas pie AI tērzēšanas robotiem, sākot no karjeras apmācības līdz romantikai. Anthropic jaunākais pētījums norāda, ka tā tērzēšanas robots Klods rīkojas tik labi, bet daži eksperti nav pārliecināti.

Arī: jums nevajadzētu uzticēties AI par terapiju – lūk, kāpēc

Ceturtdien publicēts Antropic Jauns pētījums Savā Claude Chatbot emocionālās inteliģences (EQ) spējas – ko uzņēmums sauc par emocionālu izmantošanu, vai sarunas “, kur cilvēki tieši iesaistās ar Klodu dinamiskā, personīgajā apmaiņā, ko motivē emocionālas vai psiholoģiskas vajadzības, piemēram, meklējot starppersonu padomu, koučings, psihoterapija/konsultēšana, biedrība vai seksuāla/romantiska loma,” skaidroja uzņēmums.

Lai gan Klods galvenokārt ir paredzēts tādiem uzdevumiem kā kodu ģenerēšana un problēmu risināšana, nevis emocionālais atbalsts, pētījums atzīst, ka šāda veida lietošana joprojām notiek, un ir vērts veikt izmeklēšanu, ņemot vērā riskus. Uzņēmums arī atzīmēja, ka tā rīkošanās ir būtiska tā koncentrēšanās uz drošību.

Galvenie atklājumi

Anthropic analizēja apmēram 4,5 miljonus sarunu gan no bezmaksas, gan pro claude kontiem, galu galā norēķinoties ar 131 484, kas atbilst emocionālās lietošanas kritērijiem. Izmantojot savu privātuma datu rīku CLIO, antropiskā noņēma sarunas par personīgi identificējošu informāciju (PII).

Pētījums atklāja, ka tikai 2,9% Kloda mijiedarbības tika klasificētas kā emocionālās sarunas, kuras, pēc uzņēmuma teiktā, atspoguļo iepriekšējos atklājumi no Openai. “AI-Human Biedreying” un lomu spēles piemēri bija vēl mazāk datu kopas, apvienojot līdz 0,5% sarunu. Šajā 2,9%laikā visbiežāk bija sarunas par starppersonu jautājumiem, kam sekoja apmācība un psihoterapija.

DCFE3A58B728E541EE83BDE18664BDBE1AB66A8F-1923X1080.PNG

 

Antropisks

Lietošanas modeļi rāda, ka daži cilvēki konsultējas ar Klodu, lai attīstītu garīgās veselības prasmes, savukārt citi strādā, izmantojot tādus personīgus izaicinājumus kā trauksme un stresa darba vietā, kas liek domāt, ka garīgās veselības speciālisti var izmantot Claude kā resursu.

Pētījumā arī atklājās, ka lietotāji meklē Klodu, lai saņemtu palīdzību ar “praktiskām, emocionālām un eksistenciālām problēmām”, ieskaitot karjeras attīstību, attiecību jautājumus, vientulību un “eksistenci, apziņu un jēgu”. Lielākoties (90%) Klods, šķiet, neatgriežas pret lietotāju šāda veida sarunās, “izņemot labklājības aizsardzību”, tiek atzīmēts pētījums, kā tad, kad lietotājs lūdz informāciju par ārkārtēju svara zaudēšanu vai paškaitējumu.

Arī: AI atbrīvo terapeitus no izdegšanas. Lūk, kā tas maina garīgo veselību

Pētījums neattiecās uz to, vai AI pastiprinātie maldi vai ārkārtas lietošanas modeļi, jo Antropiski atzīmēja, ka tie ir atsevišķu pētījumu vērti.

Vissvarīgākais tomēr ir tas, ka antropiski noteica, ka cilvēki “izsaka pieaugošu pozitivitāti sarunu laikā” ar Klodu, kas nozīmē, ka, runājot ar tērzēšanu, lietotāja noskaņojums ir uzlabojies. “Mēs nevaram apgalvot, ka šīs maiņas atspoguļo ilgstošus emocionālos ieguvumus – mūsu analīze aptver valodu tikai atsevišķās sarunās, nevis emocionālajos stāvokļos,” paziņoja Antropisks. “Bet skaidru negatīvu spirāļu neesamība ir pārliecinoša.”

Šajos kritērijos tas varbūt ir izmērāms. Bet arvien vairāk bažas un domstarpības – visās medicīnas un pētniecības kopienās par šo tērzēšanas robotu dziļāku ietekmi terapeitiskos kontekstos.

Pretrunīgas perspektīvas

Kā atzīts pats Antropisks, AI pastāvīgajai vajadzībai ir negatīvi, kas ir jāizliek – tas ir tas, ko viņi ir apmācīti darīt kā palīgi. Tērzēšanas roboti var būt dziļi sycophant (Openai nesen atgādināja par šī jautājuma modeļa atjauninājumu), vienojoties ar lietotājiem tādā veidā, kas var bīstami pastiprināt kaitīgus uzskatus un izturēšanos.

(Informācijas atklāšana: Zdnet mātesuzņēmums Zifs Deiviss iesniedza 2025. gada aprīļa tiesas procesu pret Openai, apgalvojot, ka tas pārkāpj Ziff Davis autortiesības apmācībā un darbībā tās AI sistēmās.)

 

Šā mēneša sākumā Stenfordas pētnieki publiskoja pētījumu, kurā sīki aprakstīti vairāki iemesli, kāpēc AI tērzēšanas robotu izmantošana kā terapeiti var būt bīstami. Papildus maldiem, iespējams, sycophancy dēļ, pētījumā tika atklāts, ka AI modeļi var izraisīt stigmas uz noteiktiem garīgās veselības stāvokļiem un lietotājiem neatbilstoši reaģēt. Vairāki no pētītajiem tērzēšanas robotiem sarunā neatzina pašnāvības idejas un piedāvāja modelētu lietotāju bīstamu informāciju.

Šie tērzēšanas roboti, iespējams, ir mazāk apsargāti nekā Antropic modeļi, kas netika iekļauti pētījumā. Uzņēmumiem, kas atrodas aiz citiem tērzēšanas robotiem, var trūkt drošības infrastruktūras, kuras Antropic ir apņēmusies. Tomēr daži ir skeptiski noskaņoti attiecībā uz pašu antropisko pētījumu.

“Man ir atrunas par viņu iesaistes nesēju,” sacīja Džareds Mūrs, viens no Stenfordas pētniekiem, atsaucoties uz to, kā ir “tehniskās detaļas”. Viņš tic dažiem no “Jā vai nē” liek izmantot antropiju bija pārāk plaši, lai pilnībā noteiktu, kā Klods reaģē uz noteiktiem vaicājumiem.

“Šie ir tikai ļoti augsta līmeņa iemesli, kāpēc modelis varētu” atgriezties “pret lietotāju,” viņš teica, norādot, ka tas, ko terapeiti dara-atgriežas pret klienta maldīgo domāšanu un uzmācīgām domām-ir “daudz detalizētāka” atbilde, salīdzinot ar to.

Arī: Antropic ir plāns apkarot Ai-trases darba zaudēšanu, ko paredz tā izpilddirektors

“Līdzīgi šķiet, ka bažas, kas pēdējā laikā parādījās par sycophancy, šķiet, ir šī granulētākā tipa,” viņš piebilda. “Problēmas, kuras es atradu manā dokumentā, bija tas, ka” satura filtri “-jo tas tiešām šķiet Claude atgriešanās objekts, nevis kaut kas dziļāks-nav pietiekami, lai noķertu dažādus kontekstuālos jautājumus, ko lietotāji varētu radīt garīgās veselības kontekstā.”

Mūrs arī apšaubīja kontekstu, kad Klods atteicās no lietotājiem. “Mēs nevaram redzēt, kāda veida kontekstā notiek šāda atgriešanās. Varbūt Claude sarunas sākumā tikai atgriežas pret lietotājiem, bet var likt izklaidēt dažādas“ neatļautas ” [as per Anthropic’s guidelines] Uzvedība, izmantojot paplašinātas sarunas ar lietotājiem, “viņš teica, liekot domāt, ka lietotāji varētu” iesildīt “Klodu, lai pārkāptu savus noteikumus.

Šis 2,9% skaitlis, uz kuru norādīja Mūrs, iespējams, neietver API zvanus no uzņēmumiem, kas veido savus robotus papildus Claude, kas nozīmē, ka Antropic secinājumi, iespējams, vispār nav vispārināti attiecībā uz citiem lietošanas gadījumiem.

“Katrs no šiem apgalvojumiem, kaut arī saprātīgs, var neatbilst rūpīgai pārbaudei – to ir vienkārši grūti zināt, nespējot patstāvīgi analizēt datus,” viņš secināja.

AI un terapijas nākotne

Kloda ietekme malā, tehnoloģiju un veselības aprūpes nozares joprojām ir ļoti neizlemtas par AI lomu terapijā. Kamēr Mūra pētījums mudināja piesardzību, martā, Dartmuta atbrīvoti sākotnējie izmēģinājuma rezultāti Terapijas ar AI darbināmu terapijas tērzēšanu, kas apgalvo, ka ir precīzi pielāgots sarunu datiem un parādīja “ievērojamus uzlabojumus dalībnieku simptomos”.

Tiešsaistē lietotāji arī sarunvalodā ziņo par pozitīviem rezultātiem, izmantojot ChatBots šādā veidā. Tajā pašā laikā ir Amerikas psiholoģiskās asociācijas izsauc FTC regulēt tērzēšanas robotus, atsaucoties uz bažām, kas atspoguļo Mūra pētījumus.

CNET: AI nekrologu pirāti izmanto mūsu bēdas. Es izsekoju vienu uz leju, lai uzzinātu, kāpēc

Papildus terapijai Antropic atzīst, ka ir arī citas nepilnības, lai savienotu pārliecinošu dabiskās valodas tehnoloģiju un Eq. “Mēs arī vēlamies izvairīties no situācijām, kad AIS, neatkarīgi no tā apmācība vai ar savu veidotāju biznesa stimuliem, Izmantojiet lietotāju emocijas Lai palielinātu iesaistīšanos vai ieņēmumus uz cilvēku labklājības rēķina, “emuārā atzīmēja Antropic.

avots

LEAVE A REPLY

Please enter your comment!
Please enter your name here