Valodu modeļi ir kondicionēti ar briesmīgu savvaļas minējumiem, nevis atzītu nezināšanu, pētījumā ir atklāts
Uzņēmums, kas atrodas aiz ChatGPT “Halucinācijas”Apvidū
Piektdienas paziņojumā Openai paskaidroja, ka modeļi parasti tiek mudināti apdraudēt minējumu, lai arī cik maz ticami, nevis atzīst, ka viņi nevar atbildēt uz jautājumu.
Jautājums ir attiecināms uz pamatprincipiem “Standarta apmācības un novērtēšanas procedūras”, “ Uzņēmums pievienoja.
Openai ir atklājis, ka gadījumi, kad valodas modeļi “Pārliecināti ģenerēt atbildi, kas nav patiesa” turpinājuši nomocīt vēl jaunākas, progresīvākas iterācijas, ieskaitot tās jaunāko flagmanu GPT -5 sistēmu.
Saskaņā ar nesenā pētījuma rezultātiem problēma sakņojas tā, kā parasti tiek vērtēta valodas modeļu sniegums, un minēšanas modelis ir augstāks nekā uzmanīgs, kas atzīst nenoteiktību. Saskaņā ar standarta protokoliem AI sistēmas uzzina, ka atbildes ģenerēšana ir drošs veids, kā testā iegūt nulles punktus, savukārt nepamatots minējums var tikai izrādīties pareizs.
Lasīt vairāk:
Vai AI mūs visus vada neprātīgi?
“Sabiedrības dēļi var paplašināt halucinācijas samazināšanas metožu pieņemšanu,” Paziņojumā tomēr tika secināts, atzīstot, ka “Precizitāte nekad nesasniegs 100%, jo neatkarīgi no modeļa lieluma, meklēšanas un spriešanas iespējām daži reālās pasaules jautājumi pēc būtības nav atbildīgi.”
Jūs varat dalīties ar šo stāstu sociālajos medijos: