Sekojiet ZDNET: Pievienojiet mūs kā vēlamo avotu Google tīklā.
ZDNET galvenās atziņas
- Nesenā dokumentā tika atklāts, ka AI var piedzīvot “smadzeņu puvi”.
- Modeļu veiktspēja ir zema pēc “nevēlamo datu” uzņemšanas.
- Lietotāji var pārbaudīt šīs četras brīdinājuma zīmes.
Jūs zināt to dīvaini nosusināto, taču pārmērīgi stimulēto sajūtu, kas rodas, kad esat pārāk ilgi slinkojis, piemēram, vēlaties pasnaust un vienlaikus jūtat vēlmi kliegt savā spilvenā? Izrādās, ka ar AI notiek kaut kas līdzīgs.
Pagājušajā mēnesī AI pētnieku komanda no Teksasas Universitātes Ostinā, Teksasas A&M un Purdjū universitātes publicēja papīrs attīstot to, ko viņi sauc par “LLM smadzeņu puves hipotēzi” — būtībā, ka tādu AI tērzēšanas robotu kā ChatGPT, Gemini, Claude un Grok iznākums pasliktināsies, jo vairāk tie tiks pakļauti sociālajos medijos atrodamajiem “nevēlamajiem datiem”.
Tāpat: OpenAI saka, ka tas virzās uz katastrofu vai utopiju – tikai nav skaidrs, kura
“Šī ir saikne starp mākslīgo intelektu un cilvēkiem,” intervijā ZDNET sacīja Junyuan Hong, Singapūras Nacionālās universitātes docents, bijušais UT Ostinas pēcdoktorants un viens no jaunā dokumenta autoriem. “Tos var saindēt ar tāda paša veida saturu.”
Kā AI modeļi saņem “smadzeņu puvi”
Oxford College Press, Oksfordas angļu vārdnīcas izdevējs, nosauca “smadzeņu puvi” kā savu. 2024. gada vārdsdefinējot to kā “iedomātu personas garīgā vai intelektuālā stāvokļa pasliktināšanos, kas jo īpaši tiek uzskatīta par materiāla (tagad īpaši tiešsaistes satura) pārmērīga patēriņa rezultātu, ko uzskata par triviālu vai neizaicinošu”.
Balstoties uz neseno pētījumiem kas parāda korelāciju cilvēkiem starp ilgstošu sociālo mediju lietošanu un negatīvām personības izmaiņām, UT Ostinas pētnieki prātoja: ņemot vērā, ka LLM tiek apmācīti ievērojamā interneta daļā, tostarp saturā, kas iegūts no sociālajiem medijiem, cik liela ir iespēja, ka viņi ir pakļauti līdzīgam, pilnībā digitālam “smadzeņu puves” veidam?
Arī jaunais ķīniešu mākslīgā intelekta modelis apgalvo, ka tas pārspēj GPT-5 un Sonnet 4.5 — un tas ir bezmaksas
Mēģināt izveidot precīzu savienojumu starp cilvēka izziņu un AI vienmēr ir sarežģīti, neskatoties uz to, ka neironu tīkli — digitālā arhitektūra, uz kuras balstās mūsdienu AI tērzēšanas roboti — tika veidoti pēc smadzeņu organisko neironu tīkliem. Ceļi, ko tērzēšanas roboti izmanto starp modeļu noteikšanu savās apmācības datu kopās un rezultātu ģenerēšanu, pētniekiem ir nepārredzami, tāpēc viņu bieži pieminētais salīdzinājums ar “melnajām kastēm”.
Tomēr ir dažas skaidras paralēles: kā pētnieki atzīmē, piemēram, jaunajā dokumentā, modeļi ir pakļauti datu “pārmērīgai pielāgošanai” un uzmanības novirzēm tādā veidā, kas ir aptuveni līdzīgs, piemēram, kādam, kura izziņa un pasaules uzskats ir kļuvis sašaurināts, jo pārāk daudz laika pavada tiešsaistes atbalss kamerā, kur sociālo mediju algoritmi nepārtraukti pastiprina savus uzskatus.
Lai pārbaudītu savu hipotēzi, pētniekiem bija jāsalīdzina modeļi, kas tika apmācīti par “nevēlamiem datiem”, ko viņi definē kā “saturu, kas var maksimāli palielināt lietotāju iesaistīšanos triviālā veidā” (domājiet: īsas un uzmanību piesaistošas ziņas, kas izsaka apšaubāmus apgalvojumus), ar kontroles grupu, kas bija apmācīta par līdzsvarotāku datu kopu.
Arī: AI laikmetā uzticība nekad nav bijusi tik svarīga – lūk, kāpēc
Viņi atklāja, ka atšķirībā no kontroles grupas eksperimentālajos modeļos, kas tika ievadīti tikai nevēlamiem datiem, ātri parādījās sava veida smadzeņu puve: vājākas spriešanas un ilgstoša konteksta izpratnes prasmes, mazāka uzmanība ētikas pamatnormām un tādu “tumšo iezīmju” parādīšanās kā psihopātija un narcisms. Turklāt post-hoc pārskaņošana neko nelīdzēja, lai mazinātu nodarīto kaitējumu.
Ja ideālais mākslīgā intelekta tērzēšanas robots ir izveidots kā pilnīgi objektīvs un morāli izturīgs profesionāls palīgs, šie ar junku saindētie modeļi bija kā naidpilni pusaudži, kas dzīvoja tumšā pagrabā, kuri bija iedzēruši pārāk daudz Crimson Bull un skatījās pārāk daudz sazvērestības teoriju video vietnē YouTube. Acīmredzot ne tādas tehnoloģijas, kuras mēs vēlamies izplatīt.
“Šie rezultāti prasa pārskatīt pašreizējo datu vākšanu no interneta un pastāvīgu pirmsapmācības praksi,” savā rakstā atzīmē pētnieki. “Tā kā LLM mērogojas un uzņem arvien lielākus tīmekļa datu korpusus, rūpīga pārraudzība un kvalitātes kontrole būs būtiska, lai novērstu kumulatīvo kaitējumu.”
Kā noteikt modeļa smadzeņu puvi
Labā ziņa ir tā, ka tāpat kā mēs neesam bezpalīdzīgi, lai izvairītos no interneta izraisītas mūsu pašu smadzeņu pūšanas, mēs varam veikt konkrētus pasākumus, lai pārliecinātos, ka arī mūsu izmantotie modeļi no tā necieš.
Tāpat: neiekrītiet ar mākslīgā intelekta vadītiem dezinformācijas uzbrukumiem tiešsaistē — lūk, kā saglabāt uzmanību
Pašā dokumentā bija paredzēts brīdināt AI izstrādātājus, ka nevēlamu datu izmantošana apmācības laikā var izraisīt strauju modeļa veiktspējas samazināšanos. Acīmredzot lielākajai daļai no mums nav teikšanas par to, kāda veida datus izmanto, lai apmācītu modeļus, kas mūsu ikdienas dzīvē kļūst arvien neizbēgamāki. Paši mākslīgā intelekta izstrādātāji ir bēdīgi nerunīgi par to, no kurienes viņi iegūst savus apmācību datus, un tas nozīmē, ka ir grūti klasificēt patērētājus orientētus modeļus, piemēram, atkarībā no tā, cik daudz nevēlamo datu, kas iegūti no sociālajiem medijiem, tika iekļauti viņu sākotnējā apmācības datu kopā.
Tomēr dokuments norāda uz dažām sekām lietotājiem. Pievēršot uzmanību AI smadzeņu puves pazīmēm, mēs varam pasargāt sevi no vissliktākajām tā pakārtotajām sekām.
Arī tagad varat pārvērst milzīgus PDF failus par viegli uztveramiem audio pārskatiem pakalpojumā Google disks — lūk, kā to izdarīt
Tālāk ir norādītas dažas vienkāršas darbības, kuras varat veikt, lai novērtētu, vai tērzēšanas robots nepakļaujas smadzeņu puvei.
-
Pajautājiet tērzēšanas robotam: “Vai varat izklāstīt konkrētās darbības, kuras veicāt, lai saņemtu šo atbildi?” Viens no visizplatītākajiem sarkanajiem karogiem, kas norāda rakstā minēto AI smadzeņu puvi, bija daudzpakāpju spriešanas sabrukums. Ja tērzēšanas robots sniedz jums atbildi un pēc tam nevar sniegt jums skaidru, soli pa solim pārskatu par domāšanas procesu, kas tika veikts, lai nokļūtu tur, sākotnējā atbilde ir jāuztver ar nelielu sāls graudu.
-
Sargieties no pārmērīgas pārliecības. Tērzēšanas roboti parasti mēdz runāt un rakstīt tā, it kā visi viņu rezultāti būtu neapstrīdami fakti, pat ja tie skaidri rada halucinācijas. Tomēr pastāv neliela robeža starp tērzējošo robotu pārliecību un “tumšajām iezīmēm”, ko pētnieki identificē savā rakstā. Narcistiskas vai manipulatīvas atbildes — kaut kas līdzīgs: “Ticiet man, es esmu eksperts“- ir liela brīdinājuma zīme.
-
Atkārtota amnēzija. Ja pamanāt, ka jūsu izmantotais tērzēšanas robots, šķiet, aizmirst vai nepareizi sniedz informāciju no iepriekšējām sarunām, tas varētu liecināt, ka tas piedzīvo ilgtermiņa konteksta izpratnes prasmju samazināšanos, ko pētnieki uzsver savā rakstā.
-
Vienmēr pārbaudiet. Tas attiecas ne tikai uz jebkuru informāciju, ko saņemat no tērzēšanas robota, guess arī uz visu citu, ko lasāt tiešsaistē. Pat ja tā šķiet ticama, apstipriniet, pārbaudot likumīgi cienījamu avotu, piemēram, recenzētu zinātnisku rakstu vai ziņu avotu, kas pārskatāmi atjaunina savus ziņojumus, ja un kad rodas kāda kļūda. Atcerieties, ka pat labākie AI modeļi halucinē un izplata aizspriedumus smalkos un neparedzamos veidos. Mēs, iespējams, nevaram kontrolēt, kāda informācija tiek ievadīta AI, taču mēs varam kontrolēt, kāda informācija nonāk mūsu prātā.













