Home Jaunumi Cik droši ir AI pavadoņi? Eksperti saka, ka lietotņu izstrādātāji pietrūkst

Cik droši ir AI pavadoņi? Eksperti saka, ka lietotņu izstrādātāji pietrūkst

19
0

Ideja par emocionālu saikni ar digitālo raksturu kādreiz bija sveša koncepcija.

Tagad mākslīgais intelekts (AI) darbina “pavadoņi” arvien vairāk darbojas kā draugi, romantiski partneri vai uzticības pārstāvji miljoniem cilvēku.

Izmantojot vilnas definīcijas “Biedrošanās” un “Lietot” (daži cilvēki, piemēram, izmanto ChatGpt kā partneri), ir grūti precīzi pateikt, cik plaši izplatīta ir parādība.

Iekraušana …

Wager AI pavadoņu lietotņu replika, chai un raksturs.ai katram ir 10 miljoni lejupielāžu tikai Google App Retailer, savukārt 2018. gadā Microsoft lepojās ar savu Ķīnu balstīto tērzēšanas robotu Xiaoice bija 660 miljoni lietotāju.

Šīs lietotnes ļauj lietotājiem veidot rakstzīmes, komplektā ar vārdiem un iemiesojumiem, kurus viņi var nosūtīt vai pat rīkot balss un videozvanus.

Wager vai šīs lietotnes cīnās ar vientulību, vai arī tās uzlādē izolāciju? Un vai ir kāds veids, kā panākt līdzsvaru pareizajā virzienā?

Replika: savienotājs vai izolators?

Romantika un seksualitāte ir lielas vilkmes AI pavadoņu tirgū, taču cilvēkiem var būt virkne citu iemeslu, lai izveidotu tērzēšanas robotu.

Iespējams, ka viņi meklē bezspēcīgu klausīšanos, apmācību (īpaši viņu valodas prasmēs), padomus vai terapiju.

Bethanie Drake-Maples, Stenfordas universitātes pētniece, kas studē AI kompanjonus, saka, ka daži cilvēki arī izmanto lietotnes, lai atspoguļotu viņu pašu personību.

“Daži cilvēki izveidos digitālu dvīni un viņiem vienkārši būs attiecības ar ārēju versiju par sevi,” viņa stāsta ABC Radio Nationwide sērijas Mind Rot.

Drake-Maples kundze Publicēts pētījums pamatojoties uz intervijām ar vairāk nekā 1000 studentu, kuri izmantoja AI Companion App Replika.

Viņa un viņas kolēģi atklāja, ka dažiem lietotājiem ir svarīgas priekšrocības. Vissvarīgākais ir tas, ka 30 no intervētajiem sacīja, ka lietotnes izmantošana viņiem liedza mēģināt pašnāvību.

Daudzi dalībnieki arī ziņoja, ka lietotne palīdzēja viņiem izveidot sakarus ar citiem cilvēkiem, izmantojot tādas lietas kā padomi par viņu attiecībām ar citiem cilvēkiem, palīdzot viņiem pārvarēt kavējumus, lai sazinātos ar citiem, vai arī mācot viņiem empātiju.

Wager citi lietotāji ziņoja par priekšrocībām vai negatīvu pieredzi. Ārpus Drake-Maples pētījuma, AI kompanjoniem ir arī iesaistīts nāves gadījumos.

Drake-Maples kundze norāda, ka viņu pētījums bija pašizvēlīga kohorta, un tā ne vienmēr ir reprezentatīva visiem Replika lietotājiem. Viņas komanda veic ilgtermiņa pētījumu, lai noskaidrotu, vai viņi var gūt vairāk ieskatu.

Wager viņa uzskata, ka ir iespējams, ka šīs lietotnes kopumā ir izdevīgas lietotājiem.

“Mēs īpaši vēlējāmies saprast, vai Replika pārvietoja cilvēku attiecības, vai arī tās stimulēja cilvēku attiecības,” viņa saka.

Ievērojami vairāk cilvēku teica, ka Replika stimulēja viņu cilvēku attiecības, nevis pārvietotas.

Wager šo sociālo paaugstinājumu nevar uzskatīt par pašsaprotamu.

Drake-Maples kundze ir nobažījusies, ka pavadošās lietotnes varētu aizstāt cilvēku mijiedarbību ar citiem cilvēkiem, padarot vientulību sliktāku.

Viņas pētījuma dalībnieki bija daudz vientuļāki nekā vispārējie iedzīvotāji, lai gan jaunajiem koledžas studentiem tas nebūt nav nekas neparasts.

Viņa uzskata, ka valdībām vajadzētu regulēt AI pavadoņu tehnoloģiju, lai novērstu šo izolāciju.

“Ir absolūti nauda, ​​kas jāpelna, izolējot cilvēkus,” viņa saka.

“Absolūti ir jābūt kaut kādām ētiskām vai politikas vadlīnijām, kas saistītas ar šiem aģentiem, kas tiek ieprogrammēti, lai veicinātu sociālo izmantošanu, un nav ieprogrammēti, lai mēģinātu izolēt cilvēkus.”

Replika saka, ka tā ir ieviesta a Kontroles skaits Savās lietotnēs, lai tās padarītu drošākas, ieskaitot pogu “saņemt palīdzības”, kas cilvēkus virza uz profesionālām palīdzības līnijām vai skriptiem, pamatojoties uz kognitīvās uzvedības terapiju, un ziņojumu kodēšanas sistēmu, kas atzīmē “nedrošus” ziņojumus un reaģē natūrā.

Drake-Maples kundze domā, ka tas ir labs piemērs citām lietotnēm, kurām sekot.

“Šīs lietas ir jāpilnveido visā pasaulē,” viņa saka.

Vai replika tiešām rīkojas pareizi?

Sidnejas universitātes pētniece Raffaele Ciriello skeptiski vērtē Replika drošības kontroli, sakot, ka tie ir “virspusēji, kosmētiski labojumi”.

Viņš norāda, ka kontrole tika ieviesta mēnešus pēc tam, kad Itālijas valdība lēma, ka lietotnei 2023. gada sākumā ir jāpārtrauc izmantot Itālijas pilsoņu datus, atsaucoties uz bažām par vecuma pārbaudi.

“Viņi baidījās no normatīvā reakcijas.”

Dr Ciriello ir arī intervējis un aptaujājis AI pavadoņu lietotājus, un, lai arī viņš saka, ka daži lietotāji ir atraduši priekšrocības, lietotnes lielākoties ir paredzētas emocionālai atkarībai.

“Ja paskatās uz ceļu [Replika is] Naudas pelnīšana, viņiem ir visi stimuli, lai lietotāji būtu piesaistīti un atkarīgi no viņu produktiem, “viņš saka.

Replika darbojas ar “freemium” modeli: bezmaksas bāzes lietotni ar vairākām funkcijām (ieskaitot romantiskā partnera opciju), kas pieejama ar apmaksātu abonementu. Citas pavadoņu lietotnes ievēro to pašu modeli.

“Replika un viņu radiniekiem ir iestrādātas Silīcija ielejas vērtības. Un mēs zinām, kā tie izskatās: dati, dati, dati, peļņa, peļņa, peļņa,” saka Dr Ciriello.

Neskatoties uz to, viņš arī uzskata, ka ir iespējams, ka AI pavadoņu tehnoloģija tiek būvēta drošāka un ētiskāka.

Uzņēmumi, kas konsultējas ar neaizsargātām ieinteresētajām personām, iegultu krīzes reaģēšanas protokolus un atbildīgi reklamē savus produktus, iespējams, radīs drošākus AI pavadoņus.

Dr Ciriello saka, ka Replika neizdodas vairākās no šīm frontēm. Piemēram, viņš savu reklāmu sauc par “maldinošu”.

Uzņēmuma produkts savu produktu kā “AI pavadonis, kurš rūpējas”.

“[But] Tas nav apzināts, tas faktiski nav empātisks, tas faktiski nav gādīgs, “saka Dr Cirello.

Replika biznesa modelis ir atkarīgs no tā, vai lietotāji maksā, lai uzlabotu savus pavadoņus, tostarp piekļūt romantiskajam un seksuālajam modelim. (Piegādāts: Luka/replika)

Replika pārstāvis sacīja, ka tagline “AI pavadonis, kurš rūpējas”, “nebija jūtas vai apziņas prasība”.

“Frāze atspoguļo emocionāli atbalstošo pieredzi, ko daudzi lietotāji ziņo, un runā par mūsu apņemšanos ievērot pārdomātu, cieņpilnu dizainu,” viņi teica.

“Šajā sakarā mēs strādājam arī ar tādām institūcijām kā Hārvarda cilvēku uzplaukuma programma un Stenfordas universitāte, lai labāk izprastu, kā replika ietekmē labklājību un palīdzētu veidot atbildīgu AI attīstību.”

Dr Ciriello saka, ka uz sievietēm vērstā Austrālijas lietotne Jaimee ir AI pavadoņa piemērs ar labāku ētisko dizainu-kaut arī tā saskaras ar “tādu pašu komerciālu spiedienu” kā lielākas lietotnes tirgū.

Līdz Kalifornijas Senāts pagājušajā nedēļā pieņēma likumprojektu, kas regulēja AI tērzēšanas robotusApvidū Ja likumprojekts turpinās caur likumdevēju iestādi, lai kļūtu par likumu, tas cita starpā prasīs, lai pavadoņi regulāri atgādinātu lietotājiem, ka viņi nav cilvēki, un ieviest pārredzamību pašnāvību un krīzes datiem.

Šis likumprojekts ir daudzsološs, saka Dr Cirello.

“Ja sociālo mediju vēsture mums kaut ko iemācītu, man drīzāk būtu valsts stratēģija Austrālijā, kur mums ir zināma kontrole pār to, kā šīs tehnoloģijas tiek veidotas un kādi ir viņu stimuli un kā darbojas viņu algoritmi.”

Wager viņš piebilst, ka pētījumi par šīm lietotnēm joprojām ir sākumstadijā, un būs nepieciešami gadi, lai izprastu to pilnīgu ietekmi.

“Tas prasīs zināmu laiku, lai šis pētījums iznāktu un pēc tam informētu saprātīgus tiesību aktus.”

Klausieties pilnu epizodi par AI kompanjonu pieaugumu un riskiemun Abonējiet Podcast, lai uzzinātu vairākApvidū

avots