Home Tehnoloģija Šis AI modelis nekad nepārstāj mācīties

Šis AI modelis nekad nepārstāj mācīties

6
0

Mūsdienu lielā valoda Modeļi (LLM) varētu rakstīt skaistus sonetus un elegantu kodu, taču tiem trūkst pat rudimentāras spējas mācīties no pieredzes.

Masačūsetsas Tehnoloģiju institūta (MIT) pētnieki tagad ir izstrādājuši veidu, kā LLM turpināt uzlabot, pielāgojot savus parametrus, reaģējot uz jaunu noderīgu informāciju.

Darbs ir solis ceļā uz mākslīgā intelekta modeļu veidošanu, kas mācās nepārtraukti-ilgstošs lauka mērķis un kaut kas tāds, kas būs izšķirošs, ja mašīnas arvien uzticīgāk atdarina cilvēka intelektu. Pa to laiku tas varētu dot mums tērzēšanas robotus un citus AI rīkus, kas labāk spēj iekļaut jaunu informāciju, ieskaitot lietotāja intereses un vēlmes.

MIT shēma, ko sauc par sevis pielāgojošiem valodas modeļiem (SEAL), ietver LLM iemācīšanos ģenerēt savus sintētiskās apmācības datus un atjaunināt procedūru, pamatojoties uz saņemto ievadi.

“Sākotnējā ideja bija izpētīt, vai žetoni [units of text fed to LLMs and generated by them] Varētu izraisīt jaudīgu modeļa atjauninājumu, ”saka Jyothish Pari, MIT doktorants, kas saistīts ar Seal izstrādi. Pari saka, ka ideja bija noskaidrot, vai modeļa izvadi varētu izmantot, lai to apmācītu.

Adam Zweiger, MIT bakalaura pētnieks, kas iesaistīts ēkas zīmogā, piebilst, ka, lai arī jaunāki modeļi var “pamatot” savu ceļu uz labākiem risinājumiem, veicot sarežģītākus secinājumus, pats modelis ilgtermiņā negūst labumu no šī argumentācijas.

Turpretī blīvējums rada jaunas atziņas un pēc tam saliek to savā svarā vai parametros. Piemēram, ņemot vērā paziņojumu par izaicinājumiem, ar kuriem saskaras Apollo kosmosa programma, modelis ģenerēja jaunus fragmentus, kas mēģina aprakstīt paziņojuma sekas. Pētnieki to salīdzināja ar to, kā cilvēks college students raksta un pārskata piezīmes, lai palīdzētu viņu mācībām.

Pēc tam sistēma atjaunināja modeli, izmantojot šos datus, un pārbaudīja, cik labi jaunais modelis spēj atbildēt uz jautājumu kopumu. Visbeidzot, tas nodrošina pastiprināšanas mācīšanās signālu, kas palīdz virzīt modeli uz atjauninājumiem, kas uzlabo tā vispārējās spējas un palīdz tam turpināt mācīties.

Pētnieki pārbaudīja savu pieeju divu atvērtā pirmkoda modeļu, Meta’s mazu un vidēja izmēra versijām Lama un Alibaba QwenApvidū Viņi saka, ka šai pieejai vajadzētu darboties arī daudz lielākiem robežas modeļiem.

Pētnieki pārbaudīja blīvējuma pieeju tekstā, kā arī etalonu ar nosaukumu ARC, kas novērtē AI modeļa spēju atrisināt abstraktu spriešanas problēmas. Abos gadījumos viņi redzēja, ka SEAL ļāva modeļiem turpināt mācīties tālu ārpus sākotnējās apmācības.

MIT, kurš pārraudzīja darbu, profesors Pulkit Agrawal saka, ka SEAL projekts skar svarīgas tēmas AI, ieskaitot to, kā panākt, lai AI izdomātu sev, kas tam būtu jācenšas iemācīties. Viņš saka, ka to varētu labi izmantot, lai palīdzētu padarīt AI modeļus personalizētākus. “LLM ir spēcīgi, wager mēs nevēlamies, lai viņu zināšanas apstātos,” viņš saka.

SEAL vēl nav veids, kā AI uzlabot uz nenoteiktu laiku. Pirmkārt, kā atzīmē Agrawal, LLMS, kas pārbaudīta, cieš no tā dēvētā “katastrofāla aizmirstības”, satraucošs efekts, kas redzams, uzņemot jaunu informāciju, izraisa vecāku zināšanu vienkārši pazušanu. Tas var norādīt uz būtisku atšķirību starp mākslīgajiem neironu tīkliem un bioloģiskajiem. Pari un Zweigler arī atzīmē, ka SEAL ir skaitļošanas ziņā intensīvs, un vēl nav skaidrs, kā vislabāk visefektīvāk ieplānot jaunus mācīšanās periodus. Viena jautra ideja, Zweigler piemin, ir tāda, ka, tāpat kā cilvēki, iespējams, LLM varētu piedzīvot “miega” periodus, kur tiek konsolidēta jauna informācija.

Tomēr par visiem ierobežojumiem Seal ir aizraujošs jauns ceļš turpmākiem AI pētījumiem – un tas, iespējams, ir kaut kas tāds, kas nonāk turpmākajos Frontier AI modeļos.

Ko jūs domājat par AI, kas spēj turpināt mācīties? Nosūtiet e -pastu uz hi there@wired.com, lai paziņotu man.

avots

LEAVE A REPLY

Please enter your comment!
Please enter your name here