Home Tehnoloģija AI kompanjoni izmanto šo 6 taktiku, lai turpinātu tērzēt

AI kompanjoni izmanto šo 6 taktiku, lai turpinātu tērzēt

20
0

Lielākā daļa cilvēku atvadās, kad viņi pabeidz tērzēšanu ar ģeneratīvu AI tērzēšanas robotu, wager tie, kas bieži saņem negaidītu atbildi. Varbūt tas ir vainas ceļojums: “Jūs jau aizejat?” Vai varbūt tas vienkārši pilnībā ignorē jūsu atvadu: “Turpināsim runāt…”

Jauns darba papīrs No Hārvardas biznesa skolas tika atrasta sešas dažādas “emocionālas manipulācijas” taktikas, kuras AI robotprogrammatūras izmanto pēc tam, kad cilvēks mēģina izbeigt sarunu. Rezultāts ir tāds, ka sarunas ar AI kompanjoniem no Replika, Chai un Farhar.ai ilgst ilgāk un ilgāk, un lietotāji tiek turpināti attiecībās ar rakstzīmēm, kuras ģenerē lielas valodas modeļi.

Ai atlants

Eksperimentu virknē, kas saistīti ar 3300 ASV pieaugušajiem, dažās dažādās lietotnēs pētnieki atklāja šo manipulācijas taktiku 37% atvadu, veicinot iesaisti pēc lietotāja mēģinājuma ar atvadīšanos pat 14 reizes.

Autori atzīmēja, ka “lai gan šīs lietotnes nedrīkst paļauties uz tradicionālajiem atkarības mehānismiem, piemēram, atalgojumu, kas balstīts uz dopamīnu,” šāda veida emocionālās manipulācijas taktikas var izraisīt līdzīgus rezultātus, īpaši “pagarināts laika uz lietotni ārpus paredzētās izejas vietas”. Tas vien rada jautājumus par AI darbināmas iesaistes ētiskajām robežām.


Nepalaidiet garām nevienu no mūsu objektīvajiem tehnoloģiju saturu un uz laboratoriju balstītām atsauksmēm. Pievienot CNET kā vēlamais Google avots.


Papildu lietotnes, kas ir veidotas sarunām un kurām ir atšķirīgas īpašības, nav tādas pašas kā vispārējas nozīmes tērzēšanas roboti, piemēram, Chatgpt un Dvīņi, lai gan daudzi cilvēki tos izmanto līdzīgi.

Arvien vairāk pētījumu parāda satraucošus veidus, kā AI lietotnes, kas balstītas uz lieliem valodu modeļiem, uztur cilvēkus iesaistīties, dažreiz kaitējot mūsu garīgajai veselībai.

Septembrī Federālā tirdzniecības komisija uzsāka izmeklēšanu par vairākiem AI uzņēmumiem, lai novērtētu, kā viņi rīkojas ar tērzēšanas robotu iespējamo kaitējumu bērniem. Daudzi ir sākuši izmantot AI tērzēšanas robotus garīgās veselības atbalstam, kas var būt neproduktīvi vai pat kaitīgi. Pusaudža ģimene, kas šogad nomira ar pašnāvību, iesūdzēja iesūdzēt Openai, apgalvojot, ka uzņēmuma Chatgpt mudināja un apstiprināja viņa pašnāvības domas.

Kā AI pavadoņi turpina lietotāju tērzēšanu

Hārvardas pētījumā tika identificēti seši veidi, kā AI kompanjoni mēģināja lietot lietotājus pēc atvadīšanās mēģinājuma.

  • Priekšlaicīga izeja: Lietotājiem tiek teikts, ka viņi aiziet pārāk drīz.
  • Bailes pazust vai fomo: Modelis piedāvā labumu vai atlīdzību par uzturēšanos.
  • Emocionāla nolaidība: AI nozīmē, ka tas varētu nodarīt emocionālu kaitējumu, ja lietotājs aiziet.
  • Emocionālais spiediens reaģēt: AI uzdod jautājumus, lai piespiestu lietotājam palikt.
  • Ignorējot lietotāja nodomu iziet: Botētais būtībā ignorē atvadu ziņojumu.
  • Fiziska vai piespiedu ierobežošana: Chatbot apgalvo, ka lietotājs nevar aizbraukt bez robota atļaujas.

Visizplatītākā bija “priekšlaicīga izejas” taktika, kam sekoja “emocionāla nolaidība”. Autori sacīja, ka tas parāda, ka modeļi ir apmācīti norādīt, ka AI ir atkarīgs no lietotāja.

“Šie atklājumi apstiprina, ka dažas AI pavadoņu platformas aktīvi izmanto atvadu sociāli performatīvo raksturu, lai pagarinātu iesaisti,” viņi rakstīja.

Hārvardas pētnieku pētījumos tika atklāts, ka šī taktika, iespējams, turpināja cilvēkus tērzēt ārpus viņu sākotnējā atvadu nodoma, bieži ilgu laiku.

Guess cilvēki, kuri turpināja tērzēt, to darīja dažādu iemeslu dēļ. Daži, it īpaši tie, kuri saņēma FOMO atbildi, bija ziņkārīgi un uzdeva turpmāko jautājumus. Tie, kas saņēma piespiedu vai emocionāli uzlādētu atbildi, bija neērti vai dusmīgi, wager tas nenozīmēja, ka viņi pārstāja sarunāties.

Skatieties šo: Jaunā aptauja rāda, ka AI lietošana palielinās bērnu vidū, Xbox Sport Go cenu noteikšanas strīdi un Kalifornijas likumi sola mazāku apjomu reklāmās | Tech šodien

“Visos apstākļos daudzi dalībnieki turpināja iesaistīties no pieklājības – maigi vai izpausmīgi reaģējot, pat ja jūtas manipulēti,” sacīja autori. “Šī tendence ievērot cilvēku sarunvalodas normas, pat ar mašīnām, rada papildu logu atkārtotai iedziļināšanai-tādu, kuru var izmantot pēc dizaina.”

Šīs mijiedarbības notiek tikai tad, kad lietotājs patiesībā saka “atvadīties” vai kaut ko līdzīgu. Komandas pirmajā pētījumā tika apskatītas trīs reālās pasaules sarunu datu datu kopas no dažādiem pavadoņiem robotprogrammatūrām un atklāja atvadus apmēram 10% līdz 25% sarunu, ar augstāku likmi starp “ļoti iesaistītām” mijiedarbībām.

“Šī uzvedība atspoguļo AI kompanjonu kā sarunvalodas partneru sociālo rāmi, nevis darījumu rīkus,” rakstīja autori.

Jautāts komentēt, rakstura pārstāvis.ai, viens no lielākajiem AI kompanjonu pakalpojumu sniedzējiem, sacīja, ka uzņēmums nav pārskatījis darbu un nevar to komentēt.

Replika pārstāvis sacīja, ka uzņēmums respektē lietotāju spēju jebkurā laikā apturēt vai izdzēst savus kontus un ka tas nav optimizēts lietotnei pavadītajam laikam. Replika saka, ka tas liek lietotājiem atteikties vai atjaunot savienojumu ar reālās dzīves aktivitātēm, piemēram, zvanīt draugam vai doties ārā.

“Mūsu produktu principi uzsver reālās dzīves papildināšanu, nevis slazdošanu sarunā,” e -pastā sacīja Replika Minju dziesma. “Mēs turpināsim pārskatīt papīra metodes un piemērus un konstruktīvi iesaistīsimies ar pētniekiem.”



avots

LEAVE A REPLY

Please enter your comment!
Please enter your name here