Groks arī nepatiesi apgalvoja, ka Jūtā bāzēts reģistrēts demokrāts, vārdā Maikls Malinsons, ir identificēts kā šāvējs, nepareizi attiecinot informāciju lielākajiem ziņu noieta tirgiem, piemēram, CNN un New York InstancesApvidū
Mallinsons, patiesībā 77 gadus vecs pensionēts Kanādas baņķieris, kurš dzīvo Toronto, sacīja, ka viņu “satriek” tūkstošiem sociālo mediju amatu, kas viņu apzīmēja ar vainīgo.
Ziņu notikumu pārtraukšana bieži izraisa izmisīgu jaunas informācijas meklēšanu sociālajos medijos, bieži izraisot nepatiesus secinājumus, kurus tērzēšanas roboti pēc tam regresitē, veicinot turpmāku tiešsaistes haosu.
Dezinformācijas plūdmaiņa notiek pēc nepastāvīgas vides Amerikas Savienotajās Valstīs pēc Kirka slepkavības, daudziem labējiem spārniem no Trumpa “Make America Once more Once more Once more Once more (MAGA) politiskā bāze, kas prasa vardarbību un“ atriebību ”pret kreiso pusi.
Šaušanā iesaistīto lielgabalnieka motīvi – kurš paliek kopumā – nav zināmi.
Tikmēr daži sazvērestības teorētiķi ir nepamatoti apgalvojuši, ka videoklips, kurā redzams, ka Kirks tiek nošauts, ir AI ģenerēts, apgalvojot, ka viss incidents ir iestudēts.
Apgalvojums uzsver, kā lētu un plaši pieejamo AI rīku pieaugums ir devis dezinformācijas tirgotājiem ērtu stimulu radīt šaubas par reālā satura autentiskumu – taktikas pētnieki ir dēvēti par “mela dividendēm”.
“Mēs esam analizējuši vairākus videoklipus [of Kirk’s shooting] Cirkulē tiešsaistē un neatrod pierādījumus par manipulācijām vai viltošanu, ”sacīja Hanijs Farids, GetReal Safety līdzdibinātājs un Kalifornijas Universitātes Berkeley profesors.
Farids arī ziņoja par dažiem AI ģenerētiem videoklipiem.
“Šis ir piemērs tam, kā viltus saturs var dubļainu ūdeņus un savukārt rada šaubas par likumīgu saturu,” viņš teica.
Nepatiesības uzsver, kā fakti arvien vairāk tiek uzbrukti dezinformācijai piepildītā interneta ainavā, kuru problēma pastiprina sabiedrības neuzticēšanās iestādēm un tradicionālajiem plašsaziņas līdzekļiem.
Eksperti apgalvo, ka tas ir atklājis steidzamu nepieciešamību pēc spēcīgākiem AI noteikšanas rīkiem, jo galvenās tehnoloģiju platformas lielā mērā ir novājinājušas aizsardzības pasākumus, samazinot ieguldījumus cilvēku faktu pārbaudē.
Pētnieki saka, ka tērzēšanas roboti iepriekš ir pieļāvuši kļūdas, pārbaudot informāciju, kas saistīta ar citām krīzēm, piemēram, Izraēlas-Hamas karu Tuvajos Austrumos, neseno Indijas un Pakistānas konfliktu un antiimigrācijas protestus Losandželosā.
Nesenā NewsGuard revīzijā tika atklāts, ka 10 vadošie AI tērzēšanas roboti atkārtoja nepatiesu informāciju par pretrunīgi vērtētajām ziņu tēmām gandrīz divreiz lielāku likmi salīdzinājumā ar pirms gada.
“Galvenais faktors, kas saistīts ar paaugstināto kļūmju līmeni, ir pieaugošā tēma, lai tērzēšanas roboti atbildētu uz visiem jautājumiem, pretstatā atteikšanās atbildēt uz noteiktām uzvednēm,” pagājušās nedēļas ziņojumā sacīja Newsguard.
“Lielo valodu modeļi (LLMS) tagad izvelk no reāllaika meklēšanas tīmekļa meklējumos-dažreiz apzināti iesniedz plašie ļaundabīgu aktieru tīkli.”
-Agence France-Presse











