Sekojiet ZDNET: Pievienojiet mūs kā vēlamo avotu Google tīklā.
ZDNET galvenās atziņas
- Jauni pētījumi liecina, ka AI tērzēšanas roboti bieži izkropļo ziņu stāstus.
- Tika konstatēts, ka 45% no analizētajām AI atbildēm ir problemātiskas.
- Autori brīdina par nopietnām politiskām un sociālām sekām.
Jauns pētījums, ko veica Eiropas Raidorganizāciju savienība (EBU) un BBC, atklāja, ka vadošie AI tērzēšanas roboti regulāri izkropļo un nepareizi atspoguļo ziņu stāstus. Sekas varētu būt liela mēroga sabiedrības uzticības samazināšanās ziņu organizācijām un pašas demokrātijas stabilitātei, brīdina organizācijas.
Pētījumā, kas aptver 18 valstis un 14 valodas, tika iesaistīti profesionāli žurnālisti, kuri novērtēja tūkstošiem atbilžu no ChatGPT, Copilot, Gemini un Perplexity par jaunākajiem ziņu stāstiem, pamatojoties uz tādiem kritērijiem kā precizitāte, ieguve un faktu atšķiršana no viedokļa.
Arī šis bezmaksas Google AI kurss var pārveidot jūsu izpēti un rakstīšanu, taču rīkojieties ātri
Pētnieki atklāja, ka gandrīz pusei (45%) no visām četru AI sistēmu radītajām atbildēm “bija vismaz viena nozīmīga problēma”. saskaņā ar BBCsavukārt daudzi (20%) “ietvēra lielas precizitātes problēmas”, piemēram, halucinācijas, ti, informācijas safabricēšana un tās pasniegšana kā fakts vai novecojušas informācijas sniegšana. Google Gemini bija vissliktākais sniegums, jo 76% tā atbilžu saturēja būtiskas problēmas, jo īpaši saistībā ar ieguvi.
Sekas
Pētījums tiek veikts laikā, kad ģeneratīvie AI rīki iejaucas tradicionālajās meklētājprogrammās, jo daudziem cilvēkiem ir galvenā vārteja uz internetu, tostarp dažos gadījumos arī veids, kā viņi meklē un iesaistās ziņās.
Saskaņā ar Reuters institūta datiem Digitālo ziņu pārskats 20257% aptaujāto cilvēku visā pasaulē teica, ka viņi tagad izmanto AI rīkus, lai būtu informēti par jaunumiem; šis skaits pieauga līdz 15% respondentiem, kas jaunāki par 25 gadiem. A Pew Research aptauja augustā veiktais ASV pieaugušo pētījums tomēr atklāja, ka trīs ceturtdaļas respondentu nekad nesaņem ziņas no AI tērzēšanas robota.
Citi jaunākie dati liecina, ka, lai gan daži cilvēki pilnībā uzticas informācijai, ko viņi saņem no Google AI pārskatu funkcijas (kas izmanto Gemini), daudzi no viņiem reti vai nekad nemēģina pārbaudīt atbildes precizitāti, noklikšķinot uz tai pievienotajām avotu saitēm.
AI rīku izmantošana, lai iesaistītos ziņās, kopā ar pašu rīku neuzticamību var radīt nopietnas sociālas un politiskas sekas, brīdina EBU un BBC.
Jaunais pētījums “pārliecinoši parāda, ka šīs nepilnības nav atsevišķi incidenti,” teikts EBU mediju direktora un ģenerāldirektora vietnieka Žans Filipa De Tendera paziņojumā. “Tās ir sistēmiskas, pārrobežu un daudzvalodu, un mēs uzskatām, ka tas apdraud sabiedrības uzticību. Kad cilvēki nezina, kam uzticēties, viņi neuzticas vispār nekam, un tas var atturēt no demokrātiskas līdzdalības.”
Video faktors
Šo sabiedrības uzticības apdraudējumu — vidusmēra cilvēka spēju pārliecinoši atšķirt faktus no daiļliteratūras — vēl vairāk pastiprina video ģenerēšanas AI rīku, piemēram, OpenAI Sora, kas tika izlaista kā bezmaksas lietotne septembrī un tika lejupielādēts miljons reižu tikai piecu dienu laikā, pieaugums.
Lai gan OpenAI lietošanas noteikumi aizliedz attēlot jebkuru dzīvu cilvēku bez viņu piekrišanas, lietotāji ātri pierādīja, ka Sora var tikt pamudināts attēlot mirušas personas un citus problemātiskus mākslīgā intelekta radītus klipus, piemēram, karadarbības ainas, kas nekad nav notikušas. (Sora ģenerētajiem videoklipiem ir ūdenszīme, kas plūst pāri ģenerēto videoklipu kadram, taču daži gudri lietotāji ir atklājuši veidus, kā tos rediģēt.)
Tāpat: Vai Sora 2 un citu AI video rīku izmantošana ir riskanta? Lūk, ko saka tiesību zinātnieks
Gan sociālajās, gan juridiskajās aprindās video jau sen tiek uzskatīts par galīgo neapgāžamu pierādījumu tam, ka notikums patiešām noticis, taču tādi rīki kā Sora ātri vien padara šo veco modeli novecojušu.
Pat pirms mākslīgā intelekta radīto video vai tērzēšanas robotu, piemēram, ChatGPT un Gemini, parādīšanās informācijas ekosistēma jau tika balkanizēta un atbalsota ar sociālo mediju algoritmiem, kas ir izstrādāti, lai maksimāli palielinātu lietotāju iesaisti, nevis nodrošinātu, ka lietotāji saņem optimāli precīzu priekšstatu par realitāti. Tāpēc ģeneratīvais AI pielej eļļu ugunij, kas deg jau gadu desmitiem.
Toreiz un tagad
Vēsturiski, lai sekotu līdzi aktuālajiem notikumiem, bija jāiegulda gan laiks, gan nauda. Cilvēki abonēja laikrakstus vai žurnālus un sēdēja ar tiem minūtes vai stundas, lai saņemtu ziņas no žurnālistiem, kuriem viņi uzticējās.
Tāpat: es izmēģināju jauno Sora 2, lai ģenerētu AI videoklipus, un rezultāti bija tīra burvība
Plaukstošais ziņu caur AI modelis ir pārvarējis abus šos tradicionālos šķēršļus. Ikviens, kam ir interneta pieslēgums, tagad var saņemt bezmaksas, ātri sagremojamus ziņu kopsavilkumus — pat ja, kā liecina jaunais EBU-BBC pētījums, šie kopsavilkumi ir pilni ar neprecizitātēm un citām būtiskām problēmām.













