Marejs teica, ka robots, kas paredzēts, lai nodrošinātu to, kas tam tiek prasīts, ir bīstama lieta, ja tā operators redz tikai vienu iespēju.
Notiek ielāde
“Mēs esam redzējuši dažus satraucošus uzvedības veidus ar ģeneratīvo AI, lietas, kas patiesībā nepalīdz nelaimē nonākušam cilvēkam… padomi, kas atbilst viņu pašreizējai domāšanai, tādējādi saasinot riskus,” viņa sacīja.
“Pretēji kādam, kas var sniegt alternatīvu perspektīvu, lai palīdzētu viņiem noteikt dzīves iemeslus. Nelaimē nonākusi persona to neprasīs.”
Septembrī Austrālijas e-drošības komisārs reģistrējās izpildāmi nozares kodi kas attiecas uz tērzēšanas robotiem. Tiem ir vajadzīgas platformas, lai novērstu bērnu piekļuvi kaitīgam materiālam, tostarp saturam, kas saistīts ar pašnāvībām un paškaitējumu.
Marejs sacīja, ka valdībai ir jāuzņemas aktīvāka loma visu austrāliešu aizsardzībā no iespējamā kaitējuma. Ja tērzēšanas robotu paredzēts izmantot kā veselības pakalpojumu, tas ir jāregulē tāpat kā viens, un tam jāatbilst tiem pašiem pārredzamības un atbildības standartiem.
“Mēs neesam pret digitālo platformu izmantošanu, lai palīdzētu cilvēkiem, taču ir labāki veidi, kā to izdarīt. Ir labāki veidi, kā veidot nākotni,” viņa sacīja, norādot, ka jau ir pieejami digitāli, anonīmi, uz pierādījumiem balstīti pakalpojumi, kas var palīdzēt.
“Jums nav jārunā ar kādu pa tālruni. Ir arī citi veidi, kā iegūt šo atbalstu, izmantojot labi atzītas, labi izpētītas un labi pārbaudītas programmas, piemēram, Lifeline un Past Blue. Es saprotu ChatGPT anonimitātes pievilcību, taču faktiski esošie pakalpojumi jau nodrošina šādu drošības līmeni. Un viņi to var demonstrēt ar tādu OpenAI līmeni. Mums nav pārredzamības.
Eimija Donaldsone, Melburnas klīniskā psiholoģe, kas strādā ar jauniešiem, teica, ka tērzēšanas roboti var būt bīstami, jo tie ir ieprogrammēti, lai izpatiktu un var kļūt par idealizētu, ideālu draugu, kas ļauj radīt negatīvus modeļus un apdraud reālās pasaules attiecības.
“Cilvēki novirza savu enerģiju, lai mijiedarbotos ar robotu, kas nevar nodrošināt tādu pašu dziļumu un savienojumu, kādu spēj cilvēks,” sacīja Donaldsons. “Tā ir izstrādāta, lai sniegtu tieši tādas atbildes, kuras vēlaties dzirdēt… un, ja tā nav, varat sniegt norādījumus, lai nākamreiz tas reaģētu tā, kā vēlaties.
Notiek ielāde
“Atsauksmes, ko esmu saņēmis no dažiem saviem klientiem, ir tādas, ka viņi ir pārsteigti, ja cilvēki reālajā pasaulē nereaģē šādi.”
Pieaug cilvēku skaits, kuri pēc palīdzības vēršas pie tērzēšanas robotiem, jo tradicionālie pakalpojumi atzīmē nepieredzētu izmantošanu. Gandrīz trīs no 10 austrāliešiem pēdējo 12 mēnešu laikā ir vērsušies pēc palīdzības pašnāvību novēršanas dienestā, Saskaņā ar Suicide Prevention Australia pētījumu. Katram piektajam austrāliešu jaunietim bija nopietnas domas par pašnāvību, un 6 procenti to izdarīja pēdējā gada laikā. 18-24 gadus veci cilvēki visbiežāk vēršas pēc palīdzības.
Taču Donaldsons sacīja, ka tērzēšanas roboti ir pievilcīgi jauniem lietotājiem, kuri, iespējams, nevēlas izmantot esošos pakalpojumus, piemēram, skolas labklājības pakalpojumus, kuriem jāinformē vecāki par paškaitējumu. Un, lai gan robots varētu kalpot pozitīvai lomai aprūpes veicināšanā un padomu sniegšanā, kamēr cilvēks atrodas gaidīšanas sarakstā, lai tiktos pie profesionāļa, viņa sacīja, ka platformu mēģinājumi palīdzēt bija daudz riskantāki neaizsargātākajiem lietotājiem, kuri ChatGPT drošības ziņojumus varētu uztvert kā atteikšanos sniegt palīdzību.
“Tie cilvēki varētu teikt labi, labi, arī šī lieta man nevar palīdzēt,” viņa teica.
“Es esmu noraizējies par to, kas notiks pēc tam, jo cilvēks var redzēt šo reakciju un nākt klajā ar alternatīvu plānu, un tas ir kas cits, nekā trāpīt tādam ceļa šķērslim.”
Ja jums vai kādam, ko pazīstat, nepieciešams atbalsts, zvaniet Dzīves līnija uz 131 114, Bērnu palīdzības tālrunis pa 1800 55 1800 vai Aiz Blue uz 1300 224 636.
Saņemiet jaunumus un pārskatus par tehnoloģijām, sīkrīkiem un spēlēm mūsu tehnoloģiju informatīvajā izdevumā katru piektdienu. Reģistrējies šeit.












