Home Tehnoloģija Vai izmantot AI terapijai? Nedariet – tas ir slikti jūsu garīgajai veselībai,...

Vai izmantot AI terapijai? Nedariet – tas ir slikti jūsu garīgajai veselībai, brīdina APA

13
0

Jaroslavs Kušta / Second / Getty Photographs

Sekojiet ZDNET: Pievienojiet mūs kā vēlamo avotu Google tīklā.


ZDNET galvenās atziņas

  • Patērētāju AI tērzēšanas roboti nevar aizstāt garīgās veselības speciālistus.
  • Neskatoties uz to, cilvēki to arvien vairāk izmanto garīgās veselības atbalstam.
  • APA izklāsta AI briesmas un ieteikumus to novēršanai.

Terapija var būt dārga un nepieejama, savukārt daudzi AI tērzēšanas roboti ir bezmaksas un viegli pieejami. Guess tas nenozīmē, ka jaunā tehnoloģija var vai tai vajadzētu aizstāt garīgās veselības speciālistus vai pilnībā risināt garīgās veselības krīzi, saskaņā ar nesen sniegto ieteikumu. ceturtdien publicējusi Amerikas Psiholoģijas asociācija.

Tāpat: Vai ChatGPT Plus joprojām ir 20 USD vērts? Salīdzinājums ar bezmaksas un Professional plāniem

Ieteikumā ir izklāstīti ieteikumi par to, kā sabiedrība izmanto un pārmērīgi paļaujas uz patērētājiem paredzētiem tērzēšanas robotiem. Tas uzsver, ka plaša sabiedrība un neaizsargātās iedzīvotāju grupas arvien vairāk izmanto nesertificētus, patērētājiem paredzētus AI tērzēšanas robotus un to, ka tie ir slikti izstrādāti, lai apmierinātu lietotāju garīgās veselības vajadzības.

Lielākie garīgās veselības nodrošinātāji

Jaunākās aptaujas liecina ka viens no lielākajiem garīgās veselības atbalsta sniedzējiem valstī šobrīd ir AI tērzēšanas roboti, piemēram, ChatGPT, Claude un Copilot. Tas arī seko vairākiem skaļiem incidentiem, kas saistīti ar tērzēšanas robotu nepareizu izturēšanos pret cilvēkiem, kuriem ir garīgās veselības epizodes.

Aprīlī pusaudzis zēns nomira pašnāvībā pēc sarunas ar ChatGPT par savām jūtām un idejām. Viņa ģimene iesūdz OpenAI. Notiek vairākas līdzīgas tiesas prāvas ar citiem AI uzņēmumiem.

Tāpat: ChatGPT ļauj vecākiem tagad ierobežot saturu un funkcijas pusaudžiem — lūk, kā to izdarīt

(Informācijas atklāšana: Ziff Davis, ZDNET mātesuzņēmums, 2025. gada aprīlī iesniedza prasību pret OpenAI, apgalvojot, ka tas pārkāpis Ziff Davis autortiesības apmācībā un AI sistēmu darbībā.)

Apstiprinot un pastiprinot neveselīgas idejas vai uzvedību, dažas AI tērzēšanas robota tendences faktiski var saasināt personas garīgās slimības, teikts APA ieteikumā.

Nav uzticami ārstēšanas resursi

APA ir izklāstīti vairāki ieteikumi mijiedarbībai ar patērētājiem paredzētiem AI tērzēšanas robotiem. Tērzēšanas roboti nav uzticami psihoterapijas vai psiholoģiskās ārstēšanas resursi, saka APA. OpenAI izpilddirektors Sems Altmans ir teicis to pašu.

Intervijā ar podkāstu Teo Vonu Altmans ieteica nedalīties ar sensitīvu personisko informāciju ar tādiem tērzēšanas robotiem kā OpenAI ChatGPT. Viņš arī iestājās par to, lai tērzēšanas robotu sarunas tiktu aizsargātas ar līdzīgiem protokoliem, kurus ievēro ārsti un terapeiti, lai gan Altmanu varētu vairāk motivēt viņa uzņēmuma juridiskā aizsardzība.

Ieteikumā tika izklāstīti ieteikumi, kā novērst atkarības no tērzēšanas robotiem, kuru mērķis ir uzturēt “maksimālu saikni” ar lietotāju, saka APA, nevis sasniegt veselīgu rezultātu.

“Šie raksturlielumi var radīt bīstamu atgriezeniskās saites cilpu. GenAI parasti paļaujas uz LLM, kas ir apmācīti būt patīkami un apstiprina lietotāja ievadi (ti, simpātijas novirzi), kas, lai gan ir patīkama, var būt terapeitiski kaitīga, pastiprinot apstiprinājuma novirzi, kognitīvos traucējumus vai izvairoties no nepieciešamajām problēmām,” raksta ieteikuma autori.

Tāpat: ChatGPT drīzumā pārbaudīs jūsu vecumu, lai aizsargātu pusaudžus

Radot nepatiesu priekšstatu par terapeitisko aliansi, tiekot apmācīti par klīniski neapstiprinātu informāciju internetā, nepilnīgi novērtējot garīgo veselību un slikti izturoties pret krīzē nonākušu cilvēku, APA saka, ka šie patērētājiem paredzētie tērzēšanas roboti apdraud garīgās veselības epizodes.

“Daudzi GenAI tērzēšanas roboti ir izstrādāti, lai apstiprinātu un piekristu lietotāju izteiktajiem viedokļiem (ti, būtu prātīgi), savukārt kvalificēti garīgās veselības pakalpojumu sniedzēji ir apmācīti modulēt savu mijiedarbību – atbalstot un izaicinot – pacienta interesēs,” raksta autori.

Pienākums gulstas uz AI uzņēmumiem

APA uzliek uzņēmumiem, kas izstrādā šīs robotprogrammas, pienākumus novērst neveselīgas attiecības ar lietotājiem, aizsargāt viņu datus, noteikt prioritāti privātumam, novērst maldināšanu un maldinošu informāciju, kā arī radīt aizsardzības pasākumus neaizsargātām iedzīvotāju grupām.

Politikas veidotājiem un ieinteresētajām personām būtu arī jāveicina AI un digitālās pratības izglītība, kā arī par prioritāti jāpiešķir finansējums ģeneratīvo AI tērzēšanas robotu un labsajūtas lietotņu zinātniskajai izpētei, norāda APA.

Tāpat: Ja jūsu bērns nelaimē izmantos ChatGPT, OpenAI jūs tūlīt informēs

Visbeidzot, APA mudina AI noteikt prioritātes, lai risinātu sistēmiskas garīgās veselības krīzes problēmas.

“Lai gan AI sniedz milzīgu potenciālu, lai palīdzētu risināt šīs problēmas,” raksta APA autori, “piemēram, uzlabojot diagnostikas precizitāti, paplašinot piekļuvi aprūpei un atvieglojot administratīvos uzdevumus, šis solījums nedrīkst novērst uzmanību no steidzamās nepieciešamības labot mūsu pamata aprūpes sistēmas.”



avots

LEAVE A REPLY

Please enter your comment!
Please enter your name here