Gazā iemūžinātais mokošs attēls, kas parāda smagi nepietiekami barotu jaunu meiteni, kas turēta mātes rokās, ir kļuvis par jaunāko zibspuldzi notiekošajā cīņā par patiesību, tehnoloģiju un Izraēlas-Hamas karu.Fotoattēlā, kas uzņemts 2025. gada 2. augustā, AFP fotožurnālists Omars al-Qattaa dokumentē deviņus gadus vecā Mariam Dawwas trauslo, skeleta rāmi, kas aizraujas ar masu badu apbruņotajā palestīniešu anklāvā. Izraēlas blokāde par Gazas joslu ir samazinājusi kritisko humāno palīdzību, virzot vairāk nekā divus miljonus iedzīvotāju līdz bada robežai.Guess, kad lietotāji pagriezās pret Elona Muska AI tērzēšanu, Groku, uz X, lai pārbaudītu attēlu, atbilde bija satriecoši no atzīmes. Groks uzstāja, ka foto tika uzņemts Jemenā 2018. gadā, apgalvojot, ka tas parādīja Amālu Hussainu, septiņus gadus vecu meiteni, kuras nāve no bada veidoja globālus virsrakstus Jemenas pilsoņu kara laikā.Šī atbilde nebija tikai nepareiza – tā bija bīstami maldinoša.Kad AI kļūst par dezinformācijas mašīnuGroka kļūdainā identifikācija strauji izplatījās tiešsaistē, sējot apjukumu un šauboties par ieročiem. Franču kreisā spārna likumdevējs Aymeric Caron, kurš solidarizējoties ar palestīniešiem dalījās ar tēlu, tika ātri apsūdzēts dezinformācijas izplatīšanā, kaut arī attēls bija autentisks un aktuāls.“Šis attēls ir īsts, tāpat kā ciešanas, ko tā pārstāv,” sacīja Karons, atgriežoties pret apsūdzībām.Pretrunas uzmanības centrā ir dziļi satraucoša tendence: tā kā vairāk lietotāju paļaujas uz AI rīkiem, lai pārbaudītu saturu, tehnoloģijas kļūdas nav tikai kļūdas-tie ir katalizatori, lai diskreditētu patiesību.Cilvēka traģēdija, kas apglabāta ar algoritmisku kļūduMariam Dawwas, savulaik veselīgs bērns, kas sver 25 kilogramus pirms kara sākuma 2023. gada oktobrī, tagad sver tikai deviņus. “Vienīgais uzturs, ko viņa iegūst, ir piens,” AFP sacīja viņas māte Modallala, “un pat tas ne vienmēr ir pieejams.”Viņas attēls ir kļuvis par Gazas padziļinātās humānās krīzes simbolu. Guess Grokas aizdedzinājums viņu samazināja līdz datu punktam nepareizā failā-AI halucinācija ar reālās pasaules sekām.Pat pēc apstrīdēšanas Grok sākotnēji divkāršojās: “Es neizplatu viltus ziņas; es savas atbildes balstos uz pārbaudītiem avotiem.” Kamēr tērzēšanas robots galu galā atzina kļūdu, tas atkal atkārtoja nepareizo Jemenas attiecinājumu jau nākamajā dienā.