Muhammeds Selims Korkutata | Anadolu | Getty Photographs
Divu plus gadu laikā kopš ģeneratīvā mākslīgā intelekta pārņēma pasauli vētrā pēc Chatgpt publiskās izlaišanas, uzticība ir bijusi pastāvīga problēma.
Halucinācijas, sliktā matemātika un kultūras aizspriedumi ir nomocījuši rezultātus, atgādinot lietotājiem, ka vismaz pagaidām ir ierobežots, cik daudz mēs varam paļauties uz AI.
Elona Muska Grok Chatbot, kuru izveidojis viņa starta XAI, šonedēļ parādīja, ka ir dziļāks iemesls bažām: AI var viegli manipulēt ar cilvēkiem.
Grok trešdien sāka reaģēt uz lietotāju vaicājumiem ar nepatiesiem apgalvojumiem par “balto genocīdu” Dienvidāfrikā. Līdz dienas beigām ekrānuzņēmumi tika ievietoti līdzīgu atbilžu jomā, pat ja jautājumiem nebija nekā kopīga ar šo tēmu.
Pēc tam, kad vairāk nekā 24 stundas klusēja šajā jautājumā, XAI ceturtdienas vēlu paziņoja, ka Groka dīvaino izturēšanos izraisīja “neatļauta modifikācija” tērzēšanas lietotnes tā saucamajām sistēmas uzvednēm, kas palīdz informēt par to, kā tā uzvedas un mijiedarbojas ar lietotājiem. Citiem vārdiem sakot, cilvēki diktēja AI atbildi.
Šajā gadījumā reakcijas raksturs ir tieši saistīts ar Musku, kurš dzimis un audzis Dienvidāfrikā. Musks, kuram pieder Xai papildus viņa izpilddirektora lomām plkst Tesla un SpaceX ir veicinājis nepatiesu apgalvojumu, ka vardarbība pret dažiem Dienvidāfrikas lauksaimniekiem ir “baltais genocīds”, noskaņojums, ko ir paudis arī prezidents Donalds Trumps.
“Es domāju, ka tas ir neticami svarīgi satura un tas, kurš vada šo uzņēmumu, un veidi, kā tas ierosina vai atklāj sava veida spēku, kas šiem rīkiem ir jāveido cilvēku domāšanas un izpratnes veidošanai par pasauli,” sacīja Deirdre Mulligan, Kalifornijas universitātes profesors Berkeley un AI pārvaldības eksperts.
Mulligan raksturoja grok dažādas kā “algoritmisku sadalījumu”, kas “izšķir lielo valodu modeļu domājamo neitrālo raksturu. Viņa sacīja, ka nav iemesla redzēt Groku darbības traucējumus kā tikai “izņēmumu”.
AI darbināmi tērzēšanas roboti, ko izveidojuši MetaVerdzība Google Un Openai nav “iesaiņota” informācija neitrālā veidā, wager tā vietā caurdruzno datus caur “sistēmā iebūvēto filtru un vērtību kopumu”, sacīja Mulligans. Groka sadalījums piedāvā logu, cik viegli jebkuru no šīm sistēmām var mainīt, lai izpildītu indivīda vai grupas darba kārtību.
XAI, Google un Openai pārstāvji neatbildēja uz komentāru pieprasījumiem. Meta atteicās komentēt.
Atšķirīgas nekā iepriekšējās problēmas
Grok nesankcionētās izmaiņas, Ksai sacīja tās paziņojumspārkāpa “iekšējo politiku un pamatvērtības”. Uzņēmums paziņoja, ka tas prasīs pasākumus, lai novērstu līdzīgas katastrofas, un publicēs lietotnes sistēmas pamudinājumus, lai “stiprinātu uzticību grokam kā patiesību, kas meklē AI”.
Tā nav pirmā AI kļūda, kas tiešsaistē pāriet vīrusu. Pirms desmit gadiem Google fotoattēlu lietotne nepareizi marķēja afroamerikāņus kā gorillas. Pagājušajā gadā Google īslaicīgi apturēja savu Dvīņu AI attēlu ģenerēšanas funkciju pēc atzīšanas, ka vēsturiskajos attēlos tā piedāvā “neprecizitātes”. Un Openai Dall-E attēlu ģeneratoru daži lietotāji apsūdzēja par neobjektivitātes pazīmēm 2022. gadā, novedot pie uzņēmuma paziņot ka tā ieviesa jaunu paņēmienu, tāpēc attēli “precīzi atspoguļo pasaules iedzīvotāju daudzveidību”.
2023. gadā 58% no AI lēmumu pieņēmējiem uzņēmumos Austrālijā, Lielbritānijā un ASV pauda bažas par halucināciju risku ģeneratīvā AI izvietošanā, atklāja Forresters. Aptaujā tā gada septembrī bija iekļauti 258 respondenti.
Eksperti sacīja CNBC, ka groku incidents atgādina Ķīnas DeepSeek, kas šā gada sākumā kļuva par vienas nakts sensāciju, pateicoties tā jaunā modeļa kvalitātei un ka tā, kā ziņots, tika uzcelta par nelielu daļu no tā ASV konkurentu izmaksām.
Kritiķi ir teikuši, ka DeepSeek Censors tēmas uzskata par jutīgām pret Ķīnas valdību. Viņi saka, ka, tāpat kā Ķīna ar DeepSeek, Musk, šķiet, ietekmē rezultātus, kuru pamatā ir viņa politiskie uzskati.
Kad Xai debitēja Groku 2023. gada novembrī, Musks sacīja, ka tam ir paredzēts “mazliet asprātība”, “dumpīga švīka” un atbildēt uz “pikantiem jautājumiem”, kurus konkurenti varētu izvairīties. Februārī, Xai vainot Izmaiņu inženieris, kas nomāc groku atbildes uz lietotāja jautājumiem par dezinformāciju, Muska un Trumpa vārdu neievērošanu no atbildēm.
Guess Groka nesenā apsēstība ar “balto genocīdu” Dienvidāfrikā ir ekstrēmāka.
Petars Tsankovs, AI Mannequin Revīzijas firmas Latticeflow AI izpilddirektors, sacīja, ka Groka uzpūšanās ir vairāk pārsteidzošāka nekā tas, ko mēs redzējām ar DeepSeek, jo varētu “gaidīt, ka no Ķīnas notiks kaut kāda veida manipulācijas”.
Tsankovs, kura uzņēmums atrodas Šveicē, sacīja, ka nozarei ir nepieciešama lielāka pārredzamība, lai lietotāji varētu labāk saprast, kā uzņēmumi veido un apmācīja savus modeļus un kā tas ietekmē uzvedību. Viņš atzīmēja ES centienus pieprasīt vairāk tehnoloģiju uzņēmumu nodrošināt caurspīdīgumu kā daļu no plašākiem noteikumiem reģionā.
Bez sabiedrības sašutuma “mēs nekad neizmantojam drošākus modeļus,” sacīja Tsankovs, un “cilvēki maksās cenu” par uzticības uzticību uzņēmumiem, kas tos attīsta.
Maiks Gualtieri, Forrester analītiķis, sacīja, ka Groka saruna, visticamāk, nav palēnināta tērzēšanas robotu izaugsme vai mazina ieguldījumus, ko uzņēmumi ieliek šajā tehnoloģijā. Viņš sacīja, ka lietotājiem ir noteikts līmenis šāda veida notikumos.
“Neatkarīgi no tā, vai tas ir groks, chatgpt vai gemini – visi to sagaida tagad,” sacīja Gualtieri. “Viņiem ir teicis, kā modeļi halucinē. Pastāv cerība, ka tas notiks.”
Olivia Gambelin, AI ētika un pagājušajā gadā publicētās grāmatas AI autore, sacīja, ka, lai arī šāda veida aktivitātes no groku var nebūt pārsteidzoša, tā uzsver pamata kļūdu AI modeļos.
Gambelins sacīja, ka tas “parāda, ka vismaz ar grok modeļiem ir iespējams pielāgot šos vispārējā mērķa pamatmodeļus pēc vēlēšanās”.
– CNBC Lora Kolodny un Salvadors Rodrigess piedalījās šajā ziņojumā
Novērot: Elona Muska Xai Chatbot GROK ierosina Dienvidāfrikas “balto genocīda” apgalvojumus.
