Sekojiet ZDNET: Pievienojiet mūs kā vēlamo avotu Google tīklā.
ZDNET galvenās atziņas
- xAI’s Grokipedia tagad ir tiešraidē.
- Platformas rakstus raksta un “faktu pārbauda” Groks.
- Tas vairākos veidos atšķiras no Vikipēdijas, taču arī to noplēs.
Pirmdien tika palaists Elona Muska xAI Grokipediatiešsaistes informācijas krātuve, kuru pilnībā pārzina uzņēmuma vadošais AI tērzēšanas robots Groks. Musks ir reklamējis vietni kā sava veida anti-Wikipedia, kas viņam ir teica ir “netriviāls kreisais aizspriedums” un ir izsmejošs sauca “Vokepēdija.”
Tāpat: vai jums ir nepieciešams labākais AI satura detektors 2025. gadā? Izmēģiniet šos četrus rīkus (jūs, iespējams, jau izmantojat vienu)
Kopš debijas 2001. gadā Wikipedia ir uzkrājusi krietni vairāk nekā septiņi miljoni rakstukuras visas ir rakstījuši un rediģējuši lietotāji. Lai gan šī modeļa ideja bija ļaut ienākt visdažādākajām perspektīvām un viedokļiem — sava veida paškorektīvai informācijas mašīnai, kas sliecas uz patiesību — daudzi cilvēki, tostarp vietnes līdzdibinātājs. Džimijs Velssir apgalvojuši, ka Vikipēdija pēdējos gados ir kļuvusi ideoloģiski neobjektīva.
Tāpat kā Groks bija paredzēts kā alternatīva pret “pamošanos” tādiem populāriem tērzēšanas robotiem kā ChatGPT un Gemini, xAI reklamē Grokipedia kā līdzsvarotāku un uzticamāku Vikipēdijas versiju. Wager kā tas sakrājas? Es to izmēģināju.
Kā tas darbojas
Grokipedia estētika atgādina Groka lietotāja interfeisu: mani sagaidīja vienkārša meklēšanas josla zem teksta “Grokipedia v0.1”, kas liek domāt, ka šī ir tikai agrākā vietnes iterācija un ka nākotnē var sagaidīt citus.
Es ievadīju tēmu meklēšanas joslā, un līdzīgi kā meklētājprogrammā Grokipedia parādīja man atlasāmo lapu nosaukumu sarakstu. Trešdienas rītā vietnes mājaslapas apkopojums liecināja, ka tajā ir vairāk nekā 885 000 rakstu. tos visus ir uzrakstījis un “pārbaudījis faktus” — saskaņā ar atrunu virs atsevišķiem rakstiem — Groks.
Tāpat: jūs lasāt vairāk AI radīta satura, nekā domājat
Tomēr Verge ziņots Pirmdien, kad dažos Grokipedia rakstos ir ietverta neuzkrītoša atruna pašā lapas apakšā, kurā teikts, ka saturs ir “pielāgots no Wikipedia, licencēts saskaņā ar Inventive Commons Attribution-ShareAlike 4.0 licenci”. Citiem vārdiem sakot, šķiet, ka vietne izmanto saturu, kas ņemts tieši no tās vietnes, kuru bija paredzēts aizstāt.
Lietotāji, kuriem ir X konts, var izcelt ziņās atrastās informācijas fragmentus un noklikšķināt uz pogas “Tas ir nepareizi”, lai atzīmētu neprecīzu informāciju, līdzīgi kā Kopienas piezīmju pieeja gan Meta, gan X tirgoja faktisko faktu pārbaudi šī gada sākumā. xAI nekavējoties neatbildēja uz manu komentāru pieprasījumu par to, kā lietotāju atsauksmes veido Grokipedia ierakstus.
Bažas
Pieturēšanās pie faktiem nav gluži AI stiprā puse. Pagājušajā nedēļā Eiropas Raidorganizāciju savienības un BBC publicētajā pētījumā, kurā analizēti tūkstošiem ar ziņām saistītu atbilžu no četriem vadošajiem AI tērzēšanas robotiem (neskaitot Groku), konstatēts, ka gandrīz pusei ir vismaz viena nopietna problēma, tostarp halucinācijas (neprecīzas informācijas ģenerēšana, kas maskēta kā patiesība), novecojušas informācijas sniegšana un kļūdainu ieguves metožu izmantošana.
Arī: Vai saņemt ziņas no AI? Uzmanieties – gandrīz pusi no laika tas ir nepareizi
Lai gan Grok tika izstrādāts, lai “maksimizētu patiesību un objektivitāti”, saskaņā ar xAI ir svarīgi atcerēties, ka tas ir LLM un tāpat kā visi LLM, tas ir nepilnīgs.
Pēc vienas publikas domām līderu saraksts Salīdzinot pierobežas modeļu halucināciju biežumu, kad tiek piedāvāts veikt vienkāršu dokumentu apkopošanas uzdevumu, Grok 2 pašlaik ir salīdzinoši augsts, kas nozīmē, ka tas ir vairāk pakļauts halucinācijām nekā daudzi citi vadošie modeļi. Grok 4, modeļa jaunākā iterācija, pašlaik ieņem 99. vietu tajā pašā līderu sarakstā, tieši priekšā OpenAI o4-mini-augstajam rādītājam un tieši aiz Microsoft Phi-4.
xAI arī apmācīja Groku, daļēji izmantojot publiskos ierakstus un citu informāciju, kas ņemta no X, kas xAI rīcībā ir aprakstīts kā “unikāla un būtiska priekšrocība” tērzēšanas robotam. A pētījums Tomēr šī mēneša sākumā publicētais pirmsdrukas servera vietnē arXiv atklāja cēloņsakarību starp apmācības datiem, kas iegūti no “nevēlama” sociālo mediju satura — domājiet: augsta iesaistīšanās, zemas kvalitātes ieraksti — un tieksmi uz “smadzeņu puves” digitālo analogu: ievērojamu modeļu rezultātu uzticamības samazināšanos un tādu “tumšu īpašību” pieaugumu kā psihopātijas.
Jautājumi par satura iegūšanu
Tad ir fakts, ka daudziem lietotājiem ir ziņots incidenti, kuros Groks, šķiet, ir iepazinies ar Muska sociālajiem medijiem publicētajiem ierakstiem vai rakstiem, kas rakstīti par miljardieri, pirms reaģēja uz noteiktiem sensitīviem norādījumiem. Līdzīgi šķiet, ka Grokipedia dažos svarīgos aspektos atspoguļo Muska personiskos, politiskos un ideoloģiskos uzskatus.
Arī: Kāpēc atvērtais avots var neizdzīvot ģeneratīvā AI pieaugumu
Piemēram, Musks ir atklāts par to, ko viņš uzskata par eksistenciālu risku, ko rada dzimstības samazināšanās, ko viņš aprakstīja decembrī. X ziņa kā “līdz šim lielākās briesmas cilvēku civilizācijai”. Es uzgāju Grokipedia ierakstu par “Sabiedrības sabrukumu”, kas ietver garu diskusiju par dzimstības samazināšanās destabilizējošajām sociālajām sekām vēsturē, kurā aprakstīts, kā “masu imigrācija” sarežģī problēmu. Es atradu a atbilstošais Wikipedia ieraksts kas neietvēra ne vārda par cēloņsakarību starp dzimstības samazināšanos un sabiedrības sabrukumu.
Kārtējā Grokipēdija ierakstu on Grok atkārtoja paša Muska ideālistiskos uzskatus par tērzēšanas robotu kā pret “pamodinātu” foliju tā konkurentiem.
Vai vēlaties vairāk stāstu par AI? Reģistrējieties mūsu AI līderu sarakstam informatīvais izdevums.
“Atšķirībā no daudzām konkurējošām mākslīgā intelekta sistēmām, Grok ir izstrādāts tā, lai nodrošinātu maksimālu patiesumu, ietverot humoru, dumpīgu pieeju pikantiem vai noraidītiem jautājumiem un pretestību tradicionālajiem politiskajiem aizspriedumiem,” teikts ierakstā.
Apakšējā līnija
Galu galā jebkurš resurss, kas veltīts cilvēku veidotās informācijas vākšanai un kataloģizēšanai, atspoguļos zināmu cilvēku aizspriedumu pakāpi. Lēmumam par to, kuri rīki ir jāizmanto, ir jābūt atkarīgam no tiem, kuriem, jūsuprāt, ir visefektīvākie un uzticamākie kļūdu labošanas mehānismi.
Tāpat: esmu testējis populārākās AI pārlūkprogrammas — lūk, kuras no tām mani patiešām iespaidoja
Kā jums pateiks jebkurš koledžas profesors, jums nevajadzētu uzticēties Vikipēdijai kā primārajam informācijas avotam. Tas varētu būt noderīgi, lai iegūtu augsta līmeņa pārskatu par personu, vietu, lietu vai vēsturisku notikumu, taču, tā kā tā ir atvērtā koda datubāze, tā ir abpusējā daba, tas nozīmē, ka vietnē ir arī daudz muļķību. Jums vienmēr ir jāapstiprina viss, ko lasāt Vikipēdijā, pārbaudot uzticamākus pārskatus, piemēram, recenzētus pētījumus vai rakstus, ko publicējuši cienījami ziņu punkti, kuru redaktori ir nodevušies žurnālistikas godīgumam.
Tomēr es personīgi vairāk ticētu vietnei, ko kurē rakstnieki un redaktori, nekā tādai vietnei kā Grokipedia, kuru pārvalda LLM, ar visām tās nepilnībām. Un tas attiektos uz jebkuru LLM, ne tikai Groku. Kamēr mums nav modeļu, kas ir pilnībā izturīgi pret halucinācijām — un vēl ir jānoskaidro, vai tas ir pat tehniski iespējams, jums vienmēr ir jāuztver jebkura atbilde, ko saņemat no tiem, ar sātīgu sāls graudu, jo pastāv nulles iespēja, ka tas jums melo.
Pat bez halucinācijām AI modeļos var būt novirzes, kas importētas no viņu apmācības datiem, kas var ietekmēt to atbildes.













