Home Tehnoloģija Čārlija Kirksa nāve pierāda,

Čārlija Kirksa nāve pierāda,

6
0

 

It took only hours for the internet to explode with conspiracies about the murder of Charlie Kirk – who died yesterday after he was shot at a public event in Utah, reports say.

The far-right commentator, who often engaged in vitriolic debates about immigration, gun control and abortion on college campuses, was killed while on a campus tour with his conservative media group, Turning Point USA. The organization has spent the past decade building conservative youth coalitions at top universities and is closely aligned with the nationalist MAGA movement and President Trump. As early reports of the incident poured in from both mainstream news outlets and pop culture accounts , it was unclear whether Kirk was alive or whether his shooter had been apprehended.

See also:How to stop videos from autoplaying X

But internet sleuths on both sides of the political aisle were already at war on social media, trying to identify people’s names in the crowd and practicing keyboard forensics as they got closer and closer to the graphic video of Kirk being shot. Some claimed that Kirk’s bodyguards were trading hand signals just before the shots rang out. Others claimed that the killing was actually a cover-up to distract from Trump’s open dealings with the late sex trafficker Jeffrey Epstein.

Compounding the issue was AI-powered chatbots, which have taken over social media platforms both as integrated robotic assistants and as AI spam accounts that automatically respond to annoying users.

In one example, according to media outlets and disinformation watchdog NewsGuard, an account called @Askperplexity , apparently affiliated with an AI company, told a user that its original claim that Charlie Kirk was dead was actually misinformation and that Kirk was alive. The reversal came after the user prompted the bot to explain how common-sense gun reform could have saved Kirk’s life. The reply has since been removed from NewsGuard’s report.

“The Confusion BOT account should not be confused with the Confusion account,” Confusion clarified in a statement to Mashable. “Accurate AI is a core technology we build and is a core experience across all of our products. Because we take this topic so seriously, Confusion never claims to be 100% accurate. But we do claim to be the only AI company that works relentlessly on it as our primary focus.”

Elona Muska AI bots, groks, kļūdaini apstiprināja lietotājam, ka video ir Rediģēts “meme” videopēc apgalvojuma, ka Kirks agrāk ir “saskāries ar stingrākiem pūļiem” un “viegli izdzīvos”. Pēc tam tērzēšanas robots divkāršojās, rakstot: “Čārlijs Kirks debatē, un efekti liek izskatīties tā, it kā viņš būtu” nošauts “komēdijas efekta vidū. Nav faktiska kaitējuma; viņš ir labi un aktīvs kā jebkad.” Drošības eksperti tolaik to teica Videoklipi bija autentiskiApvidū

Citos gadījumos NewsGuard dokumentēts, lietotāji dalījās ar tērzēšanas robotu atbildēm, lai apstiprinātu viņu pašu sazvērestības, ieskaitot tos, kuri apgalvo, ka viņa slepkavība plāno ārvalstu aktieri un ka viņa nāvi skāra demokrāti. Viens lietotājs dalījās ar AI ģenerētu Google atbildi, kas apgalvoja, ka Kirks ir iekļauts uztverto Ukrainas ienaidnieku sarakstā. Grok teica vēl vienam X lietotājam, ka CNN, NYT un Fox News bija visi apstiprināja reģistrētu demokrātu tika novērots noziegumā un bija apstiprināts aizdomās turamais – Neviens no tiem nebija taisnībaApvidū

Mashable gaismas ātrums

“Lielākā daļa vaicājumu, kas meklē informāciju par šo tēmu, atgriežas augstas kvalitātes un precīzas atbildes. Šis konkrētais AI pārskats pārkāpa mūsu politiku, un mēs rīkojamies, lai risinātu šo problēmu,” sacīja Google pārstāvis Mashable.

Mashable arī sazinājās ar Groku mātesuzņēmumu XAI, lai komentētu.

Tērzbotus nevar apmācīt kā žurnālisti

Kaut arī AI palīgi var būt noderīgi vienkāršiem ikdienas uzdevumiem-e-pasta ziņojumu nosūtīšanai, rezervāciju veikšanai, uzdevumu sarakstu izveidošanai-, viņu vājība ziņošanā ir atbildība visiem, saskaņā ar gan sargsuņiem, gan plašsaziņas līdzekļu vadītājiem.

 

Algoritmi neaicina komentēt.

– McKenzie Sadeghi, NewsGuard

 

“Mēs dzīvojam nemierīgos laikos, un cik ilgs laiks būs pirms AI-distortēts virsraksts nodara ievērojamu reālās pasaules kaitējumu?“Jautāja BBC News un aktuālo lietu izpilddirektore Deboras Turness šā gada sākuma emuārā.

Viena problēma ir tā, ka tērzēšanas roboti vienkārši Atkārtojiet to, ko viņi sakaar minimālu rīcības brīvību; Viņi nevar paveikt darbu, ko cilvēku žurnālisti veic pirms jaunumu publicēšanas, piemēram, sazinoties ar vietējām amatpersonām un pārbaudot attēlus vai videoklipus, kas ātri izplatījās tiešsaistē. Tā vietā viņi izsecināt atbildi no tā, kas ir viņu pirkstu galosApvidū Tas ir nozīmīgi ziņu jaunumu pasaulē, kurā ir zināms, ka pat cilvēki to kļūdās. Salīdzinot ar AI melno kasti, lielākajai daļai ziņu istabu ir veikti čeki un atlikumi, piemēram, redaktoru dubultā pārbaudi stāsti, pirms viņi dodas tiešraidē.

No otras puses, tērzēšanas roboti piedāvā personisku, izolētu mijiedarbību un ir bēdīgi sycophantic, darot visu iespējamo, lai izpatiktu un apstiprinātu lietotāja uzskatus.

“Mūsu pētījumā ir atklāts, ka, uzticoties ziņojumiem, tērzēšanas roboti mēdz sniegt pārliecinātas, bet neprecīzas atbildes,” skaidroja McKenzie Sadeghi, NewsGuard pētnieks un iepriekšminētās analīzes autors. “Iepriekšējo ziņu notikumu laikā, piemēram, slepkavības mēģinājums pret Donaldu Trumpu pagājušajā gadā, Čatboti informētu lietotājus ka viņiem nebija piekļuves reāllaika, aktuālai informācijai. “Bet kopš tā laika, viņa paskaidroja, AI uzņēmumi ir izlīdzinājuši savus robotus, tostarp nodrošinot viņiem piekļuvi reāllaika jaunumiem, kā tas notiek.

“Tā vietā, lai atteiktos uz atbildi, modeļi tagad atvelk no jebkuras informācijas, kas ir pieejama tiešsaistē noteiktā brīdī, ieskaitot vietnes ar zemu iedziļināšanos, sociālās ziņas un AI ģenerētas satura fermas, kuras iesēja ļaundabīgi dalībnieki. Rezultātā tērzēšanas roboti atkārto un apstiprina nepatiesas prasības paaugstināta riska, ātri kustīgu pasākumu laikā,” viņa sacīja. “Algoritmi neaicina komentēt.”

Sadeghi paskaidroja, ka tērzēšanas roboti par prioritāti izvirza skaļākās balsis telpā, nevis pareizo. Informācijas fragmentus, kurus biežāk atkārto, BOT algoritms piešķir vienprātību un autoritāti, “ļaujot nepatiesībām noslīcināt ierobežotos pieejamos autoritatīvos pārskatus”.

Brennan Tieslietu centrs NYU, bezpartejiska likuma un politikas institūts, arī izseko AI lomu ziņu pulcēšanā. Organizācija ir izvirzījusi līdzīgus trauksmes signālus par ģeneratīvās AI ietekmi uz ziņu kompetenci, ieskaitot tās lomu, dodot iespēju dēvētā kā “Melu dividendes” – vai ieguvumi, ko gūst indivīdi, kuri rada neskaidrības, pieprasot reālu informāciju, ir nepatiesi. Šādi” meli “apgalvo, ka patiesību nav iespējams noteikt, jo, kā daudzi tagad apgalvo, jebkuru attēlu vai video var radīt ģeneratīva AI.

Pat ar raksturīgajiem riskiem, Vairāk cilvēku ir vērsušies pie ģeneratīvas AI jaunumiem Tā kā uzņēmumi turpina iedziļināties tehnoloģijās sociālo mediju plūsmās un meklētājprogrammās. Saskaņā ar Pew pētījumu aptauju, personas, kuras saskārās ar AI ģenerētiem meklēšanas rezultātiem, bija Mazāka iespēja noklikšķināt Papildu avotos nekā tie, kas izmantoja tradicionālās meklētājprogrammas. Tikmēr lielākie tehnoloģiju uzņēmumi ir samazinājuši savas cilvēku faktu pārbaudes komandas par labu sabiedrības novērstām piezīmēm, neskatoties uz plaši izplatītām bažām par dezinformācijas pieaugumu un AI ietekme uz ziņām un politikuApvidū Jūlijā X paziņoja, ka tā izmēģina programmu, kas ļaus tērzēšanas robotiem radīt savas kopienas piezīmes.

Topics
Social Good Social Media

source

LEAVE A REPLY

Please enter your comment!
Please enter your name here