Home Tehnoloģija AI steka vienkāršošana: mērogojama, pārnēsājama intelekta atslēga no mākoņa līdz malai

AI steka vienkāršošana: mērogojama, pārnēsājama intelekta atslēga no mākoņa līdz malai

5
0

Prezentēja Arm


Vienkāršāka programmatūras steks ir pārnēsājama, mērogojama AI atslēga mākoņos un malās.

AI tagad nodrošina reālās pasaules lietojumprogrammas, taču sadrumstalotas programmatūras skursteņi to kavē. Izstrādātāji regulāri pārbūvē vienus un tos pašus modeļus dažādiem aparatūras mērķiem, zaudējot laiku, lai pielīmētu kodu, nevis piegādes funkcijas. Labā ziņa ir tā, ka notiek maiņa. Vienotas rīku ķēdes un optimizētas bibliotēkas ļauj izvietot modeļus dažādās platformās, neapdraudot veiktspēju.

Tomēr joprojām pastāv viens kritisks šķērslis: programmatūras sarežģītība. Atšķirīgi rīki, aparatūrai raksturīga optimizācija un daudzslāņu tehnoloģiju komplekti turpina kavēt progresu. Lai atvērtu nākamo mākslīgā intelekta inovāciju vilni, nozarei ir noteikti jāatsakās no slēptās izstrādes un jāvirzās uz racionalizētām, visaptverošām platformām.

Šī transformācija jau pieņemas spēkā. Lielākie mākoņdatošanas pakalpojumu sniedzēji, malu platformu pārdevēji un atvērtā pirmkoda kopienas apvienojas vienotās rīku ķēdēs, kas vienkāršo izstrādi un paātrina izvietošanu no mākoņa līdz malai. Šajā rakstā mēs izpētīsim, kāpēc vienkāršošana ir mērogojama AI atslēga, kas virza šo impulsu un kā nākamās paaudzes platformas pārvērš šo redzējumu reālos rezultātos.

Sašaurinājums: sadrumstalotība, sarežģītība un neefektivitāte

Problēma nav tikai aparatūras dažādība; tas ir dublēts darbs starp ietvariem un mērķiem, kas palēnina laiku līdz vērtībai.

Dažādi aparatūras mērķi: GPU, NPU, tikai CPU ierīces, mobilie SoC un pielāgoti paātrinātāji.

Instrumenti un ietvara sadrumstalotība: TensorFlow, PyTorch, ONNX, MediaPipe un citi.

Malu ierobežojumi: ierīcēm ir nepieciešama reāllaika, energoefektīva veiktspēja ar minimālām pieskaitāmām izmaksām.

Saskaņā ar Gartner pētījumsšīs neatbilstības rada galveno šķērsli: vairāk nekā 60% AI iniciatīvu apstājas pirms ražošanas, un to veicina integrācijas sarežģītība un veiktspējas mainīgums.

Kā izskatās programmatūras vienkāršošana

Vienkāršošana apvieno apmēram piecas darbības, kas samazina pārbūves izmaksas un risku:

Starpplatformu abstrakcijas slāņi kas samazina pārveidi, pārceļot modeļus.

Veiktspējai pielāgotas bibliotēkas integrēts galvenajos ML ietvaros.

Vienoti arhitektūras projekti no datu centra līdz mobilajām ierīcēm.

Atvērtie standarti un izpildlaiki (piemēram, ONNX, MLIR), samazinot bloķēšanu un uzlabojot saderību.

Izstrādātājs vispirms ekosistēmas uzsverot ātrumu, reproducējamību un mērogojamību.

Šīs izmaiņas padara AI pieejamāku, īpaši jaunizveidotiem uzņēmumiem un akadēmiskajām komandām, kurām iepriekš trūka resursu individuālai optimizācijai. Tādi projekti kā Hugging Face Optimum un MLPerf etaloni arī palīdz standartizēt un apstiprināt starpaparatūras veiktspēju.

Ekosistēmas impulss un reālās pasaules signāli Vienkāršošana vairs nav mērķtiecīga; tas notiek tagad. Visā nozarē programmatūras apsvērumi ietekmē lēmumus IP un silīcija dizaina līmenī, kā rezultātā tiek radīti risinājumi, kas ir gatavi ražošanai jau no pirmās dienas. Lielākie ekosistēmu dalībnieki virza šo maiņu, saskaņojot aparatūras un programmatūras izstrādes centienus, nodrošinot ciešāku integrāciju visā kaudzē.

Galvenais katalizators ir straujais malu secinājumu pieaugums, kur AI modeļi tiek izvietoti tieši ierīcēs, nevis mākonī. Tas ir palielinājis pieprasījumu pēc racionalizētām programmatūras kaudzēm, kas atbalsta pilnīgu optimizāciju no silīcija līdz sistēmai līdz lietojumprogrammai. Uzņēmumi, piemēram, Arm, reaģē, nodrošinot ciešāku savienojumu starp savām skaitļošanas platformām un programmatūras rīku ķēdēm, palīdzot izstrādātājiem paātrināt izvietošanas laiku, nezaudējot veiktspēju vai pārnesamību. Arī multimodālu un vispārējas nozīmes pamatu modeļu (piemēram, LLaMA, Gemini, Claude) parādīšanās ir palielinājusi steidzamību. Šiem modeļiem ir nepieciešams elastīgs izpildlaiks, ko var mērogot mākoņu un malu vidēs. AI aģenti, kas mijiedarbojas, pielāgojas un veic uzdevumus autonomi, vēl vairāk veicina nepieciešamību pēc augstas efektivitātes, vairāku platformu programmatūras.

MLPerf Inference v3.1 ietvēra vairāk nekā 13 500 veiktspējas rezultātus no 26 iesniedzējiem, apstiprinot AI darba slodžu vairāku platformu salīdzinošo novērtēšanu. Rezultāti aptvēra gan datu centru, gan malas ierīces, parādot optimizēto izvietojumu daudzveidību, kas tagad tiek pārbaudīti un koplietoti.

Kopumā šie signāli skaidri parāda, ka tirgus pieprasījums un stimuli sakrīt ar kopīgu prioritāšu kopumu, tostarp veiktspējas palielināšanu uz vatu, pārnesamības nodrošināšanu, latentuma samazināšanu un drošības un konsekvences nodrošināšanu mērogā.

Kas jānotiek veiksmīgai vienkāršošanai

Lai realizētu vienkāršotu AI platformu solījumu, ir jāievēro vairākas lietas:

Spēcīga aparatūras/programmatūras kopprojektēšana: aparatūras līdzekļi, kas ir atklāti programmatūras ietvaros (piemēram, matricas reizinātāji, paātrinātāja instrukcijas), un otrādi, programmatūra, kas izstrādāta, lai izmantotu pamata aparatūras priekšrocības.

Konsekventas, izturīgas rīku ķēdes un bibliotēkas: izstrādātājiem ir vajadzīgas uzticamas, labi dokumentētas bibliotēkas, kas darbojas dažādās ierīcēs. Veiktspējas pārnesamība ir noderīga tikai tad, ja rīki ir stabili un labi atbalstīti.

Atvērta ekosistēma: aparatūras pārdevējiem, programmatūras ietvaru uzturētājiem un modeļu izstrādātājiem ir jāsadarbojas. Standarti un kopīgi projekti palīdz izvairīties no riteņa atkārtotas izgudrošanas katrai jaunai ierīcei vai lietošanas gadījumam.

Abstrakcijas, kas neaizsedz veiktspēju: lai gan augsta līmeņa abstrakcija palīdz izstrādātājiem, tiem joprojām ir jāatļauj regulēšana vai redzamība, kur nepieciešams. Galvenais ir pareizais līdzsvars starp abstrakciju un kontroli.

Iebūvēta drošība, privātums un uzticēšanās: jo īpaši tāpēc, ka arvien vairāk aprēķinu pāriet uz ierīcēm (malas/mobilajām ierīcēm), ir svarīgi tādi jautājumi kā datu aizsardzība, droša izpilde, modeļa integritāte un privātums.

Arm kā viens no ekosistēmas virzītas vienkāršošanas piemēriem

MI vienkāršošana plašā mērogā tagad ir atkarīga no visas sistēmas dizaina, kur silīcijs, programmatūra un izstrādātāja rīki attīstās nepārtraukti. Šī pieeja ļauj AI darba slodzei efektīvi darboties dažādās vidēs, sākot no mākoņu secinājumu klasteriem līdz malu ierīcēm, kurām ir ierobežots akumulators. Tas arī samazina individuālās optimizācijas izmaksas, atvieglojot jaunu produktu ātrāku laišanu tirgū. Arm (Nasdaq:Arm) pilnveido šo modeli, koncentrējoties uz platformu, kas paaugstina aparatūras un programmatūras optimizāciju, izmantojot programmatūras steku. Plkst COMPUTEX 2025Arm demonstrēja, kā tā jaunākie Arm9 CPU apvienojumā ar AI specifiskiem ISA paplašinājumiem un Kleidi bibliotēkām nodrošina ciešāku integrāciju ar plaši izmantotiem ietvariem, piemēram, PyTorch, ExecuTorch, ONNX Runtime un MediaPipe. Šī izlīdzināšana samazina vajadzību pēc pielāgotiem kodoliem vai manuāli noregulētiem operatoriem, ļaujot izstrādātājiem atbloķēt aparatūras veiktspēju, neatsakoties no pazīstamām rīku ķēdēm.

Reālās pasaules sekas ir nozīmīgas. Datu centrā uz Arm balstītas platformas nodrošina uzlabotu veiktspēju uz vatu, kas ir ļoti svarīga AI darba slodzes ilgtspējīgai mērogošana. Patērētāju ierīcēs šīs optimizācijas nodrošina īpaši atsaucīgu lietotāja pieredzi un fona inteliģenci, kas vienmēr ir ieslēgta, tomēr energoefektīva.

Plašāk sakot, nozare apvieno vienkāršošanu kā dizaina obligātu prasību, AI atbalstu iestrādājot tieši aparatūras ceļvežos, optimizējot programmatūras pārnesamību un standartizējot atbalstu galvenajām AI izpildlaikiem. Arm pieeja ilustrē, kā dziļa integrācija visā skaitļošanas stekā var padarīt mērogojamu AI par praktisku realitāti.

Tirgus validācija un impulss

2025. gadā gandrīz puse aprēķinu, kas tiek piegādāts lielākajiem hiperskaleriem, darbosies uz Arm balstītām arhitektūrāmpagrieziena punkts, kas uzsver būtiskas izmaiņas mākoņu infrastruktūrā. Tā kā AI darba slodze kļūst arvien resursietilpīgāka, mākoņpakalpojumu sniedzēji par prioritāti piešķir arhitektūrām, kas nodrošina izcilu veiktspēju uz vatu un atbalsta vienmērīgu programmatūras pārnesamību. Šī attīstība iezīmē stratēģisku virzību uz energoefektīvu, mērogojamu infrastruktūru, kas optimizēta mūsdienu AI veiktspējai un prasībām.

Ar Arm saderīgie secinājumu dzinēji nodrošina reāllaika pieredzi, piemēram, tiešraides tulkošanu un vienmēr ieslēgtus balss palīgus ierīcēs, kas darbināmas ar akumulatoru. Šie sasniegumi sniedz jaudīgas AI iespējas tieši lietotājiem, nezaudējot energoefektivitāti.

Izstrādātāju impulss arī paātrinās. Nesenajā sadarbībā GitHub un Arm ieviesa vietējos Arm Linux un Home windows palaidējus GitHub Actions, racionalizējot CI darbplūsmas platformām, kuru pamatā ir Arm. Šie rīki samazina šķēršļus izstrādātāju ienākšanai tirgū un nodrošina efektīvāku, vairāku platformu izstrādi.

Kas nāk tālāk

Vienkāršošana nenozīmē pilnīgu sarežģītības atcelšanu; tas nozīmē to pārvaldīt tādos veidos, kas veicina inovāciju. Mākslīgā intelekta kopai stabilizējoties, ieguvēji būs tie, kas nodrošinās nevainojamu veiktspēju sadrumstalotā ainavā.

Skatoties uz nākotni, sagaidiet:

Etaloni kā aizsargmargas: MLPerf + OSS komplekti norāda, kur tālāk optimizēt.

Vairāk augštecē, mazāk dakšu: Aparatūras līdzekļi tiek iekļauti galvenajos rīkos, nevis pielāgotos atzaros.

Pētījumu + ražošanas konverģence: Ātrāka pārsūtīšana no dokumentiem uz produktu, izmantojot koplietojamo izpildlaiku.

Secinājums

AI nākamais posms nav saistīts ar eksotisku aparatūru; tas attiecas arī uz programmatūru, kas labi pārvietojas. Kad viens un tas pats modelis efektīvi nonāk mākonī, klientā un malās, komandas nosūta ātrāk un pavada mazāk laika, lai atjaunotu steku.

Uzvarētājus nošķirs ekosistēmas mēroga vienkāršošana, nevis zīmolu vadīti saukļi. Praktiskā rokasgrāmata ir skaidra: apvienojiet platformas, veiciet optimizāciju un novērtējiet, izmantojot atvērtus etalonus. Izpētiet, kā Arm AI programmatūras platformas nodrošina šo nākotni — efektīvi, droši un apjomīgi.


Sponsorētie raksti ir saturs, ko ražo uzņēmums, kas vai nu maksā par ziņu, vai kuram ir biznesa attiecības ar VentureBeat, un tie vienmēr ir skaidri atzīmēti. Lai iegūtu vairāk informācijas, sazinieties gross sales@venturebeat.com.

avots

LEAVE A REPLY

Please enter your comment!
Please enter your name here