Mākslīgajam intelektam var būt iespaidīgas secināšanas pilnvaras, taču neskaitiet, ka drīzumā ir kaut kas tuvs cilvēka spriešanas pilnvarām. Gājiens uz tā saukto mākslīgo vispārējo intelektu (AGI) vai AI, kas spēj piemērot argumentāciju, mainot uzdevumus vai vidi tādā pašā veidā kā cilvēkiem, joprojām ir tālu. Lieli spriešanas modeļi (LRMS)lai arī tas nav ideāls, piedāvājiet provizorisku soli šajā virzienā.
Citiem vārdiem sakot, neskaitiet uz ēdienreizes-PREP servisa robotu, lai pienācīgi reaģētu uz virtuves ugunsgrēku vai mājdzīvnieku, kas lec uz galda un sagriež ēdienu.
Arī: Meta jaunā AI laboratorija mērķis
AI Svētais Grāls jau sen ir domājis un saprāts pēc iespējas cilvēciskāks – un nozares vadītāji un eksperti ir vienisprātis, ka mums vēl ir tāls ceļš ejams, pirms mēs sasniedzam šādu inteliģenci. Bet lieli valodas modeļi (LLMS) un to nedaudz progresīvāki LRM pēcnācēji darbojas ar paredzamo analītiku, pamatojoties uz datu modeļiem, nevis sarežģītu cilvēku līdzīgu spriešanu.
Neskatoties uz to, pļāpāšana ap AGI un LRM turpina augt, un bija neizbēgami, ka hype ievērojami pārsniegs faktisko pieejamo tehnoloģiju.
“Mēs šobrīd atrodamies AI veiksmes teātra mēra vidū,” sacīja Roberts BlumofeAkamai galvenais tehnoloģiju virsnieks un izpilddirektors. “Pastāv ilūzija par progresu, ko rada virsrakstu satveršanas demonstrācijas, anekdotiskas uzvaras un pārspīlētas iespējas. Patiesībā patiesi inteliģents, domas AI ir tāls ceļu attālumā. ”
Nesenais papīrpapīrs Raksta Apple pētnieki samazināja LRM gatavību. Pētnieki secināja, ka LRMS, tā kā viņi šobrīd pastāv, īsti neveic daudz argumentācijas virs un ārpus standarta LLM, kas tagad ir plaši izmantots. (Mani ZDNet kolēģi Lesters Maps un Sabrina Ortiz sniedz lieliskus pārskatus par papīra atradumiem.)
Arī: Apple “Domāšanas ilūzija” ir šokējoša – bet lūk, ko tā nokavēja
LRMS “iegūst no LLM pēcapstrādes fāzē, kā redzams tādos modeļos kā DeepSeek-R1”, sacīja Zoom galvenais tehnoloģiju virsnieks Xuedong Huang. “Pašreizējā LRM paaudze optimizē tikai galīgo atbildi, nevis pašu spriešanas procesu, kas var izraisīt kļūdainus vai halucinētus starpposma soļus.”
LRM izmanto soli pa solim domu ķēdēm, bet “mums ir jāatzīst, ka tas nav pielīdzināms patiesai izziņai, tas to tikai atdarina”, sacīja Ivana BartolettiWipro galvenais AI pārvaldības virsnieks. “Iespējams, ka uzlabosies pārdomu ķēdes paņēmieni, taču ir svarīgi saglabāt pamatotu mūsu izpratni par viņu pašreizējiem ierobežojumiem.”
LRM un LLM ir prognozēšanas dzinēji, “nevis problēmu risinātāji”, sacīja Blumofe. “Viņu argumentācija tiek veikta, atdarinot modeļus, nevis ar algoritmiski risinot problēmas. Tātad tas izskatās kā loģika, bet nevedas kā loģika. Argumentācijas nākotne AI nebūs no LLM vai LRM, kas piekļūst labākiem datiem, vai vairāk laika tērēt argumentācijai. Tas prasa fundamentāli atšķirīgus arhitektūras veidus, kas nepastāv, un” neveicina LLM, bet drīzāk, bet, lai sasniegtu LLM, bet, lai iegūtu LL, bet, lai iegūtu LL, bet, lai iegūtu LL, bet, lai iegūtu LL, bet, lai iegūtu LLM, bet drīzāk, un tas ir paredzēts.
Arī: 9 programmēšanas uzdevumi, kas jums nevajadzētu nodot AI – un kāpēc
Šobrīd labāks termins AI spriešanas spējām var būt “robains intelekts”, sacīja Caiming xiongSalesforce AI Research viceprezidents. “Šeit AI sistēmas izceļas ar vienu uzdevumu, bet iespaidīgi neizdodas citā – it īpaši uzņēmuma lietošanas gadījumos.”
Kādi ir iespējamie LRM lietošanas gadījumi? Un kāds ir šo modeļu pieņemšanas un uzturēšanas ieguvums? Iesācējiem lietošanas gadījumi var izskatīties vairāk kā pašreizējo LLM paplašinājumi. Tie radīsies vairākās jomās, bet tas ir sarežģīti. “Nākamais spriešanas modeļu robeža ir argumentācijas uzdevumi, kurus atšķirībā no matemātikas vai kodēšanas – ir grūti automātiski pārbaudīt,” sacīja Daniels HoskeCTO Crestā.
Pašlaik pieejamie LRM aptver lielāko daļu klasisko LLM lietošanas gadījumu – piemēram, “radoša rakstīšana, plānošana un kodēšana”, sacīja Petros EfstathopoulosRSA konferences pētījumu viceprezidents. “Tā kā LRM turpina uzlabot un pieņemt, būs griesti tam, ko modeļi var sasniegt patstāvīgi un kādas būs modeļa sabrukšanas robežas. Nākotnes sistēmas labāk iemācīsies izmantot un integrēt ārējos rīkus, piemēram, meklētājprogrammas, fizikas simulācijas vidi un kodēšanas vai drošības rīkus.”
Arī: 5 padomi ēku pamatu modeļiem AI
Uzņēmuma LRM agrīnās lietošanas gadījumi ietver kontaktu centrus un pamatzināšanu pamatus. Tomēr šīs ieviešanas “ir izplatītas ar subjektīvām problēmām”, sacīja Hoske. “Piemēri ir tehnisko problēmu novēršanas problēmu novēršana vai daudzpakāpju uzdevuma plānošana un izpildīšana, ņemot vērā tikai augstāka līmeņa mērķus ar nepilnīgām vai daļējām zināšanām.” Attīstoties LRMS, šīs iespējas var uzlaboties, viņš prognozēja.
Parasti “LRMS izceļas ar uzdevumiem, kas ir viegli pārbaudāmi, bet cilvēkiem ir grūti ģenerēt-tādas jomas kā kodēšana, sarežģīta QA, oficiāla plānošana un uz pakāpēm balstīta problēmu risināšana”, sacīja Huangs. “Tie ir tieši domēni, kur strukturēta spriešana, pat ja sintētiska, var pārspēt intuīciju vai brutālu spēku marķiera prognozi.”
Efstathopoulos ziņoja, ka medicīnisko pētījumu, zinātnes un datu analīzē ir redzams stabils AI izmantojums. “LRM pētījumu rezultāti ir iepriecinoši, un modeļi jau ir spējīgi risināt vienu šāvienu problēmu, risināt sarežģītas argumentācijas mīklas, plānot un uzlabot atbildes paaudzes paaudzes vidējās paaudzes.” Bet tas joprojām ir agrīnā spēles sākumā LRM, kas var būt vai nav labākais ceļš, lai pilnībā spriestu par AI.
Arī: kā AI aģenti līdz 2028. gadam var radīt USD 450 miljardus – un kas ir ceļā
Uzticēšanās rezultātiem, kas iznāk no LRM, var būt arī problemātiska, kā tas ir bijis klasiskajiem LLM. “Svarīgi ir tas, ja tikai ārpus spējām, šīs sistēmas var būt konsekventi un droši pietiekami pārliecinātas, lai tām uzticētos, ņemot vērā zemu likmju uzdevumus un kritisku biznesa lēmumu pieņemšanu,” sacīja Salesforce’s Xiong. “Mūsdienu LLM, ieskaitot tos, kas paredzēti argumentācijai, joprojām ir nepilnīgi.”
Tas nenozīmē, ka valodas modeļi ir bezjēdzīgi, uzsvēra Xiong. “Mēs veiksmīgi izvietojam tos, lai kodētu palīdzību, satura ģenerēšanu un klientu apkalpošanas automatizāciju, kur viņu pašreizējās iespējas nodrošina patiesu vērtību.”
Arī cilvēka argumentācija nav bez milzīgām nepilnībām un neobjektivitātes. “Mums nav vajadzīgs AI, lai domātu tāpat kā mēs – mums tas ir jātiek domāt ar mums,” sacīja Zoom’s Huang. “Cilvēka stila izziņa rada kognitīvas aizspriedumus un neefektivitāti, ko mēs, iespējams, nevēlamies mašīnās. Mērķis ir lietderība, nevis imitācija. LRM, kas var būt atšķirīgs, stingrāks vai pat pārredzamāks, nekā cilvēkiem var būt daudz daudzu reālās pasaules lietojumprogrammu saprāts.”
Arī: cilvēki neuzticas AI, bet viņi to arvien vairāk izmanto
LRM un galu galā AGI mērķis ir “balstīties uz AI, kas ir caurspīdīgs attiecībā uz tā ierobežojumiem, uzticams noteiktās iespējās un paredzēts, lai papildinātu cilvēka intelektu, nevis to aizstātu”, sacīja Kjiongs. Cilvēka uzraudzība ir būtiska, tāpat kā “atzīšana, ka cilvēku vērtējums, kontekstuālā izpratne un ētiskā spriešana joprojām ir neaizvietojama”, viņš piebilda.
Vai vēlaties vairāk stāstu par AI? Reģistrējieties inovācijāmmūsu iknedēļas biļetens.