Home Tehnoloģija Minimax-M1 ir jauns atvērtā koda modelis ar 1 miljonu marķieru kontekstu un...

Minimax-M1 ir jauns atvērtā koda modelis ar 1 miljonu marķieru kontekstu un jaunu, hiper efektīvu pastiprināšanas mācīšanos

6
0

Pievienojieties pasākumam, kuru uzņēmuma vadītāji uzticas gandrīz divas desmitgades. VB Rework apvieno cilvēkus, kas veido reālu uzņēmumu AI stratēģiju. Uzziniet vairāk


Ķīniešu AI starta minimax, iespējams, vislabāk pazīstams rietumos pēc tā hit reālistiskā AI video modeļa Hailuo, ir izlaidis savu jaunāko lielo valodu modeli, Minimax-m1 – un lieliskās ziņās uzņēmumiem un izstrādātājiem, tas ir pilnīgi atvērtā koda ar Apache 2.0 licencikas nozīmē, ka uzņēmumi to var ņemt un izmantot komerciālām lietojumprogrammām un modificēt to pēc patikas bez ierobežojumiem vai maksājumiem.

M1 ir atvērts svara piedāvājums, kas nosaka jaunus standartus ar garu konteksta spriešanu, aģentu rīku izmantošanu un efektīvu aprēķinu veiktspēju. Tas šodien ir pieejams AI kodu koplietošanas kopienā Apskaužot seju un Microsoft konkurentu koda koplietošanas kopiena githubPirmais izlaidums par to, ko uzņēmums sauca par “minimaxweek” no sava sociālā konta X – gaidāmi turpmāki produktu paziņojumi.

Minimax-M1 izšķir sevi ar 1 miljona ievades žetonu konteksta logu un līdz 80 000 žetonu izvadē, pozicionējot to kā vienu no visplašākajiem modeļiem, kas pieejami ilgstoša konteksta spriešanas uzdevumiem.

“Konteksta logs” lielās valodas modeļos (LLMS) norāda uz maksimālo marķieru skaitu, ko modelis var apstrādāt vienā reizē – ieskaitot gan ievadi, gan izvadi. Žetenti ir teksta pamatnes, kas var ietvert veselus vārdus, vārdu daļas, pieturzīmes vai koda simbolus. Šie žetoni tiek pārveidoti par skaitliskiem vektoriem, kurus modelis izmanto, lai attēlotu un manipulētu ar nozīmi, izmantojot tās parametrus (svarus un aizspriedumus). Viņi būtībā ir LLM dzimtā valoda.

Salīdzinājumam, Openai GPT-4O ir tikai 128 000 žetonu konteksta logs – pietiekami, lai apmainītos par romāna vērtīgu informāciju starp lietotāju un modeli vienā mijiedarbībā turp un atpakaļ. Ar 1 miljonu žetonu Minimax-M1 varētu apmainīties ar nelielu kolekcija vai grāmatu sērijas vērts informācija. Google Gemini 2.5 Professional piedāvā arī marķiera konteksta augšējo robežu 1 miljons, ar ziņoto 2 miljonu logu darbos.

Guess M1 ir vēl viens triks, kas ir uz augšu: tas ir apmācīts, izmantojot pastiprināšanas mācīšanos novatoriskā, atjautīgā, ļoti efektīvajā tehnikā. Modelis tiek apmācīts, izmantojot hibrīda ekspertu maisījuma (MOE) arhitektūru ar zibens uzmanības mehānismu, kas paredzēts, lai samazinātu secinājumu izmaksas.

Saskaņā ar tehnisko ziņojumu Minimax-M1 patērē tikai 25% no peldošā punkta operācijām (flopiem), kas prasa DeepSeek R1 paaudzes garumā 100 000 žetonu.

Arhitektūra un varianti

Modelim ir divi varianti-Minimax-M1-40K un Minimax-M1-80K-, kas attiecas uz viņu “domājošo budžetu” vai izejas garumu.

Arhitektūra ir veidota uz uzņēmuma iepriekšējā minimax-teksta-01 fonda, un tajā ietilpst 456 miljardi parametru ar 45,9 miljardiem aktivizētiem uz marķiera.

Izlaiduma izcilā iezīme ir modeļa apmācības izmaksas. Minimax ziņo, ka M1 modelis tika apmācīts, izmantojot liela mēroga pastiprināšanas mācīšanos (RL) ar efektivitāti, kas reti novērota šajā jomā, ar kopējām izmaksām 534 700 USD.

Šī efektivitāte tiek ieskaitīta pielāgotajam RL algoritmam ar nosaukumu CISPO, kas klipos svarīgu paraugu ņemšanas svaru, nevis marķieru atjauninājumus, un hibrīda uzmanības dizainam, kas palīdz pilnveidot mērogošanu.

Tā ir pārsteidzoši “lēta” summa Frontier LLM, jo Deepseek apmācīja savu Hit R1 argumentācijas modeli pie a ziņoja par USD 5 līdz 6 miljoniem USDkamēr Openais GPT-4 apmācības izmaksas-vairāk nekā divus gadus veca modele tagad-bija teica, ka pārsniedz 100 miljonus USDApvidū Šīs izmaksas rodas gan no grafikas apstrādes vienību (GPU) cenām, kas ir masveidā paralēla skaitļošanas aparatūra, ko galvenokārt ražo tādi uzņēmumi kā NVIDIA, kas var maksāt USD 20 000– 30 000 vai vairāk uz vienu moduli, un no enerģijas, kas nepieciešama, lai šīs mikroshēmas nepārtraukti darbinātu lielā mēroga datu centros.

Etalona izrāde

Minimax-M1 ir novērtēts dažādos noteiktu etalonu sērijā, kas pārbauda uzlaboto spriešanu, programmatūras inženieriju un instrumentu izmantošanas iespējas.

Matemātikas sacensību etalonā, M1-80K modelī ir 86,0% precizitāte. Tas arī nodrošina spēcīgu veiktspēju kodēšanas un garā konteksta uzdevumos, sasniedzot:

  • 65,0% par LivecodeBench
  • 56,0% par Swe-bench pārbaudītu
  • 62,8% par tau-bench
  • 73,4% Openai MRCR (4-adeedle versija)

Šie rezultāti izvieto minimax-M1 pirms citiem atvērtā svara konkurentiem, piemēram, DeepSeek-R1 un QWEN3-235B-A22B, vairākos sarežģītos uzdevumos.

Kamēr tādi slēgtas svara modeļi kā Openai O3 un Gemini 2.5 Professional joprojām ir dažu etalonu papildinājums, minimax-M1 ievērojami sašaurina veiktspējas atšķirības, vienlaikus paliekot brīvi pieejamam saskaņā ar Apache-2,0 licenci.

Izvietošanai Minimax iesaka VLLM kā apkalpojošo aizmuguri, atsaucoties uz tā optimizāciju lielām modeļa darba slodzēm, atmiņas efektivitāti un pakešu pieprasījuma apstrādi. Uzņēmums nodrošina arī izvietošanas iespējas, izmantojot Transformers bibliotēku.

Minimax-M1 ietver strukturētas funkciju izsaukšanas iespējas, un tas ir iesaiņots ar Chatbot API, kurā ir tiešsaistes meklēšana, video un attēlu ģenerēšana, runas sintēze un balss klonēšanas rīki. Šīs funkciju mērķis ir atbalstīt plašāku aģentu uzvedību reālās pasaules lietojumprogrammās.

Ietekme uz tehniskajiem lēmumu pieņēmējiem un uzņēmuma pircējiem

Minimax-M1 atvērtā piekļuve, garā konteksta iespējas un aprēķināšanas efektivitāte pievēršas vairākiem atkārtotiem izaicinājumiem tehniskajiem speciālistiem, kas atbild par AI sistēmu pārvaldību mērogā.

Inženiertehniskajiem potenciālajiem pircējiem, kas atbild par pilnu LLM dzīves ciklu, piemēram, modeļa veiktspējas optimizēšanu un izvietošanu šauros termiņos-Minimax-M1 piedāvā zemāku darbības izmaksu profilu, vienlaikus atbalstot uzlabotus spriešanas uzdevumus. Tā garais konteksta logs varētu ievērojami samazināt priekšapstrādes centienus uzņēmuma dokumentiem vai reģistrēt datus, kas aptver desmitiem vai simtiem tūkstošu žetonu.

Tiem, kas pārvalda AI orķestrācijas cauruļvadus, spēja precīzi noregulēt un izvietot minimax-M1, izmantojot tādus izveidotus rīkus kā VLLM vai Transformers, atbalsta vieglāku integrāciju esošajā infrastruktūrā. Hibrīda uzmanības arhitektūra var palīdzēt vienkāršot mērogošanas stratēģijas, un modeļa konkurences veiktspēja daudzpakāpju argumentācijas un programmatūras inženierijas etalonos piedāvā augstas spējas bāzi iekšējiem kopilotiem vai uz aģentiem balstītām sistēmām.

Raugoties no datu platformas viedokļa, komandas, kas atbildīgas par efektīvas, mērogojamas infrastruktūras uzturēšanu, var gūt labumu no M1 atbalsta strukturētu funkciju izsaukšanai un tās savietojamībai ar automatizētiem cauruļvadiem. Tās atvērtā koda raksturs ļauj komandām pielāgot sniegumu savai kaudzei bez pārdevēja ieslēgšanās.

Drošības potenciālajiem pirkumiem var būt arī vērtība, novērtējot M1 potenciālu drošu, uz vietas izvietošanu uz vietas, kas nav paredzēts augstas spējas modeļa izvietošanai, kas nepaļaujas uz sensitīvu datu pārsūtīšanu uz trešo pušu parametriem.

Kopumā Minimax-M1 piedāvā elastīgu iespēju organizācijām, kuras vēlas eksperimentēt ar progresīvām AI iespējām vai palielināt izmaksas, ievērojot darbības robežas un izvairoties no patentētiem ierobežojumiem.

Izlaiduma signālu minimax pastāvīgā uzmanība tiek pievērsta praktiskiem, mērogojamiem AI modeļiem. Apvienojot atvērto piekļuvi ar uzlabotu arhitektūru un aprēķināšanas efektivitāti, minimax-M1 var kalpot par pamata modeli izstrādātājiem, veidojot nākamās paaudzes lietojumprogrammas, kurām nepieciešams gan argumentācijas dziļums, gan liela attāluma izpratne.

Mēs visu nedēļu izsekosim Minimax citus izlaidumus. Sekojiet līdzi!


avots

LEAVE A REPLY

Please enter your comment!
Please enter your name here