Home Tehnoloģija Google Cloud mērķis ir CoreWeave un AWS ar pārvaldītu Slurm uzņēmuma mēroga...

Google Cloud mērķis ir CoreWeave un AWS ar pārvaldītu Slurm uzņēmuma mēroga AI apmācībai

7
0

Dažiem uzņēmumiem vislabāk ir pielāgot lielus modeļus savām vajadzībām, taču vairāki uzņēmumi to plāno veidot savus modeļusprojekts, kuram būtu nepieciešama piekļuve GPU.

Google Cloud vēlas uzņemties lielāku lomu uzņēmumu modeļu veidošanā ar savu jauno pakalpojumu Vertex AI Coaching. Pakalpojums sniedz uzņēmumiem, kas vēlas apmācīt savus modeļus, piekļuvi pārvaldītai Slurm videi, datu zinātnes rīkiem un visām mikroshēmām, kas spēj apmācīt liela mēroga modeļus.

Izmantojot šo jauno pakalpojumu, Google Cloud cer novērst vairāk uzņēmumu no citiem pakalpojumu sniedzējiem un veicināt uzņēmumam piemērotāku AI modeļu izveidi.

Lai gan Google Cloud vienmēr ir piedāvājis iespēju pielāgot savus Gemini modeļus, jaunais pakalpojums ļauj klientiem ieviest savus modeļus vai pielāgot jebkuru atvērtā koda modeļa Google Cloud mitinātājus.

Vertex AI Coaching pozicionē Google Cloud tieši pret tādiem uzņēmumiem kā CoreWeave un Lambda laboratorijaskā arī tā mākoņa konkurenti AWS un Microsoft Azure.

Jaime de Guerre, Gloogle Cloud produktu pārvaldības vecākais direktors, pastāstīja VentureBeat, ka uzņēmums ir dzirdējis no daudzām dažāda lieluma organizācijām, ka tām ir nepieciešams veids, kā labāk optimizēt aprēķinus, guess uzticamākā vidē.

“Mēs redzam, ka arvien vairāk uzņēmumu veido vai pielāgo lielas paaudzes AI modeļus, lai ieviestu produktu piedāvājumu, kas veidots, pamatojoties uz šiem modeļiem, vai kaut kādā veidā palīdzētu uzlabot savu biznesu,” sacīja de Gērre. “Tas ietver AI jaunuzņēmumus, tehnoloģiju uzņēmumus, suverēnas organizācijas, kas veido modeli konkrētam reģionam vai kultūrai vai valodai, un dažus lielus uzņēmumus, kas to varētu iekļaut iekšējos procesos.”

De Guerre atzīmēja, ka, lai gan ikviens var tehniski izmantot pakalpojumu, Google mērķauditorija ir uzņēmumi, kas plāno liela mēroga modeļu apmācību, nevis vienkāršus precizēšanas vai LoRA izmantotājus. Vertex AI Providers koncentrēsies uz ilgstošākiem apmācības darbiem, kas aptver simtiem vai pat tūkstošiem mikroshēmu. Cenas būs atkarīgas no uzņēmumam nepieciešamā aprēķinu apjoma.

“Vertex AI apmācība nav paredzēta papildu informācijas pievienošanai kontekstam vai RAG izmantošanai; tas ir, lai apmācītu modeli, kurā jūs varētu sākt no pilnīgi nejaušiem svariem,” viņš teica.

Modeļa pielāgošana pieaug

Uzņēmumi apzinās pielāgotu modeļu izveides vērtību, ne tikai precizējot LLM, izmantojot izguves paplašināto paaudzi (RAG). Pielāgotie modeļi uzzinātu padziļinātu uzņēmuma informāciju un atbildētu ar atbildēm, kas raksturīgas organizācijai. Uzņēmumiem patīk Arcee.ai ir sākušies piedāvājot savus modeļus pielāgošanai klientiem. Adobe nesen paziņoja par jaunu pakalpojumu, kas ļauj uzņēmumiem pārkvalificēt Firefly viņu īpašajām vajadzībām. Organizācijas, piemēram FICOkas veido mazus valodu modeļus finanšu nozareibieži iegādājas GPU, lai tos apmācītu par ievērojamām izmaksām.

Google Cloud teica, ka Vertex AI Coaching atšķir sevi, nodrošinot piekļuvi lielākam mikroshēmu kopumam, pakalpojumiem, lai uzraudzītu un pārvaldītu apmācību, un zināšanām, ko tā apguva, apmācot Gemini modeļus.

Daži sākotnējie Vertex AI Coaching klienti ietver AI SingapūraSingapūras pētniecības institūtu un jaunuzņēmumu konsorcijs, kas izveidoja 27 miljardu parametru SEA-LION v4, un SalesforceAI pētniecības komanda.

Uzņēmumiem bieži ir jāizvēlas, vai izvēlēties jau uzbūvētu LLM un precizēt to vai izveidot savu modeli. Taču LLM izveide no nulles parasti ir nesasniedzama mazākiem uzņēmumiem, vai arī dažiem lietošanas gadījumiem tas vienkārši nav jēgas. Tomēr organizācijām, kurās ir jēga pilnībā pielāgotam vai jaunajam modelim, problēma ir piekļuves GPU, kas nepieciešama apmācības vadīšanai.

Modeļu apmācība var būt dārga

De Gērre teica, ka modeles apmācība var būt grūti un dārgiit īpaši, ja organizācijas konkurē ar vairākām citām par GPU vietu.

Hiperskalori, piemēram, AWS un Microsoft, un, jā, arī Google, ir paziņojuši, ka to masīvie datu centri un plaukti un augstākās klases mikroshēmu plaukti sniedz uzņēmumiem vislielāko vērtību. Viņiem būs ne tikai piekļuve dārgiem GPU, guess arī mākoņdatošanas pakalpojumu sniedzēji bieži piedāvā pilnas kaudzes pakalpojumus, lai palīdzētu uzņēmumiem pāriet uz ražošanu.

Tādi pakalpojumi kā CoreWeave ieguva ievērojamu vietu, piedāvājot piekļuvi pēc pieprasījuma Nvidia H100s, nodrošinot klientiem elastību attiecībā uz skaitļošanas jaudu, veidojot modeļus vai lietojumprogrammas. Tas ir arī radījis biznesa modeli, kurā uzņēmumi ar GPU iznomā servera vietu.

De Guerre teica, ka Vertex AI Coaching nav tikai piekļuves piedāvāšana vilcienu modeļiem, izmantojot tukšu aprēķinu, kur uzņēmums nomā GPU serveri; viņiem ir arī jāņem līdzi sava apmācības programmatūra un jāpārvalda laiks un neveiksmes.

“Šī ir pārvaldīta Slurm vide, kas palīdzēs ar visu darbu plānošanu un automātisku darbu atgūšanu, ja darbi neizdodas,” sacīja de Gērre. “Tātad, ja apmācības darbs palēninās vai apstājas aparatūras kļūmes dēļ, apmācība tiks automātiski atsākta ļoti ātri, pamatojoties uz automātisko kontrolpunktu noteikšanu, ko mēs veicam kontrolpunktu pārvaldībā, lai turpinātu ar ļoti mazu dīkstāvi.”

Viņš piebilda, ka tas nodrošina lielāku caurlaidspēju un efektīvāku apmācību lielāka mēroga skaitļošanas klasteriem.

Tādi pakalpojumi kā Vertex AI Coaching varētu atvieglot uzņēmumiem izveidot nišas modeļus vai pilnībā pielāgot esošos modeļus. Tomēr tas, ka šī iespēja pastāv, nenozīmē, ka tā ir piemērota katram uzņēmumam.

avots

LEAVE A REPLY

Please enter your comment!
Please enter your name here