Faktiski fotoattēlā redzams 9 gadus vecais Mariam Dawwas viņas mātes Modallala rokās Gazas pilsētā 2025. gada 2. augustā.
Pirms kara, ko izraisīja Hamas 2023. gada 7. oktobris, uzbrukums Izraēlai, Mariam svēra 25 kg, viņas māte sacīja AFP.
Šodien viņa sver tikai 9 kg. Vienīgais uzturs, ko viņa saņem, lai palīdzētu viņas stāvoklim, ir piens, Modallala pastāstīja AFP – un pat tas ir “ne vienmēr pieejams”.
Izaicināts par nepareizu atbildi, Groks sacīja: “Es neizplatu viltus ziņas; es savas atbildes balstos uz pārbaudītiem avotiem”.
Tērzbots galu galā izdeva atbildi, kurā tika atzīta kļūda, wager, atbildot uz turpmākiem jautājumiem nākamajā dienā, Groks atkārtoja savu apgalvojumu, ka fotoattēls bija no Jemenas.
Tērzbots iepriekš ir izdevis saturu, kas slavē nacistu līderi Ādolfu Hitleru un kas liecināja, ka cilvēki ar ebreju uzvārdiem, visticamāk, izplatīsies tiešsaistē.
Radikālas labās aizspriedumi
Groka kļūdas ilustrē AI rīku robežas, kuru funkcijas ir tikpat necaurlaidīgas kā “melnās kastes”, sacīja tehnoloģiskās ētikas pētnieks Luiss de Diesbahs.
“Mēs precīzi nezinām, kāpēc viņi sniedz šo vai šo atbildi, kā arī to, kā viņi par prioritāti piešķir saviem avotiem,” sacīja Diesbach, grāmatas par AI rīkiem autors, Sveiks, ChatgptApvidū
Viņš sacīja, ka katrai AI ir aizspriedumi, kas saistīti ar informāciju, kurā tā tika apmācīta, un tās veidotāju norādījumiem.
Pētnieka domās, Grok, kuru veidojis Musk’s XAI jaunuzņēmums, parāda “ļoti izteiktas aizspriedumus, kas ir ļoti saskaņoti ar ideoloģiju” Dienvidāfrikas miljardieri, bijušais ASV prezidenta Donalda Trumpa uzticības persona un radikālo labējo spēku standarta nesējs.
Lūdzot tērzēšanas robotu, lai precīzi noteiktu fotoattēla izcelsmi, to izņem no pareizās lomas, sacīja Diesbach.
“Parasti, kad jūs meklējat attēla izcelsmi, tas varētu teikt:” Šo fotoattēlu varēja uzņemt Jemenā, to varēja uzņemt Gazā, to varēja uzņemt gandrīz jebkurā valstī, kur ir bads “.”
AI ne vienmēr meklē precizitāti – “tas nav mērķis”, sacīja eksperts.
Vēl viena AFP fotogrāfija ar al-Qattaa badā esošo Gazan bērnu, kas uzņemta 2025. gada jūlijā, jau bija kļūdaini izvietota un datēta ar Groku Jemenā, 2016. gadā.
Šī kļūda noveda pie tā, ka interneta lietotāji apsūdzēja franču laikrakstu Atbrīvošanakas bija publicējis manipulācijas fotoattēlu.
“Draudzīgs patoloģisks melis”
AI aizspriedumi ir saistīti ar datiem, kurus tie tiek baroti, un tas, kas notiek precizēšanas laikā-tā sauktā izlīdzināšanas fāze-, kas pēc tam nosaka, ko modelis vērtētu kā labu vai sliktu atbildi.
“Tikai tāpēc, ka jūs paskaidrojat, ka atbilde ir nepareiza, tas nenozīmē, ka tas dos citu,” sacīja Diesbach.
“Tās apmācības dati nav mainījušies, un neviena no tām nav izlīdzināta.”
Grok nav viens pats, nepareizi identificējot attēlus.
Kad AFP jautāja Mistral AI LE tērzēšanai-kas daļēji ir apmācīts AFP rakstos saskaņā ar līgumu starp Francijas jaunuzņēmumu un ziņu aģentūru-BOT arī nepareizi identificēja Mariam Dawwas fotoattēlu kā no Jemenas.
Diesbach tērzēšanas robotus nekad nedrīkst izmantot kā rīkus, lai pārbaudītu faktus.
“Viņiem nav likts pateikt patiesību [but to] Ģenerēt saturu, neatkarīgi no tā, vai tas ir patiess vai nepatiess, ”viņš teica.
“Jums tas ir jāskatās kā uz draudzīgu patoloģisku melu – tas ne vienmēr var melot, wager tas vienmēr varētu.”
-Agence France-Presse