Pievienojieties mūsu ikdienas un nedēļas biļeteniem, lai iegūtu jaunākos atjauninājumus un ekskluzīvu saturu par nozares vadošo AI pārklājumu. Uzziniet vairāk
Franču AI starta Pleas izgatavoja viļņus pagājušā gada beigās ar tās ētiski apmācītās pleias 1.0 mazu valodu modeļu saimes palaišana – Starp pirmajiem un vienīgajiem līdz šim, kas pilnībā jāveido, lai nokasītu “atvērtus” datus, tas ir, datus, kas skaidri apzīmēti kā publisks domēns, atvērtā avota vai nelicencēta un nav aizsargāta ar autortiesībām.
Tagad uzņēmumam ir paziņoja par izlaidumu no diviem atvērtā koda maza mēroga spriešanas modeļiem, kas īpaši izstrādāti, lai iegūtu izguves veidošanos (RAG), citēšanas sintēzi un strukturētai daudzvalodu izvadei.
Palaišana ietver divus galvenos modeļus-pleias-RAG-350m un pleas-RAG-1B-katrs ir pieejams arī CPU optimizētā GGUF formātā, kopā veidojot četrus izvietošanai gatavus variantus.
Tie visi ir balstīti uz PLEAS 1.0, un tos var izmantot patstāvīgi vai kopā ar citiem LLM, kurus organizācija jau var vai plānot izvietot. Šķiet, ka visi ir pieejami ar pieļaujamu Apache 2.0 atvērtā koda licenci, kas nozīmē, ka tie ir Atbilstoši organizācijām, kuras var veikt, modificēt un izvietot komerciālās lietošanas gadījumos.
Rag, kā jūs atcerēsities, ir plaši izmantotā tehnika, kuru uzņēmumi un organizācijas var izvietot, lai piesaistītu AI lielas valodas modeli (LLM), piemēram, Openai GPT-4O, Google Gemini 2.5 zibspuldzi, Anthropic’s Claude Sonnet 3.7 vai Cohere’s komandu-A vai atvērtā avota alternatīvas, piemēram, Llama 4 un Deepeek V3 uz ārējām zināšanām, piemēram, iegūstiet dokumentus.
Tas bieži ir nepieciešams uzņēmumiem, kas vēlas izveidot tērzēšanas robotus un citas AI lietojumprogrammas, kas atsaucas uz to iekšējām politikām vai produktu katalogiem (alternatīva, kas pamudina uz ilgu kontekstu LLM ar visu nepieciešamo informāciju, var nebūt piemērota uzņēmuma lietošanas gadījumiem, kad drošība un vienas kārtas pārraides izmaksas rada bažas).
Pleias-Rag modeļa ģimene ir jaunākie centieni mazināt plaisu starp precizitāti un efektivitāti mazu valodu modeļos.
Šie modeļi ir vērsti uz uzņēmumiem, izstrādātājiem un pētniekiem, kas meklē rentablas alternatīvas liela mēroga valodu modeļiem, neapdraudot izsekojamību, daudzvalodu iespējas vai strukturētas spriešanas darbplūsmas.
Mērķa lietotāja bāze faktiski ir Pleas mājas kontinents Eiropā, kā līdzdibinātājs Aleksandrs Doria stāstīja VentureBeat, izmantojot tiešo ziņojumu sociālajā tīklā X:
“Galvenā motivācija ir grūtības, kas saistītas ar lupatu lietojumprogrammām Eiropā. Lielākajai daļai privāto organizāciju ir maz GPU (tas, iespējams, ir mainījies, guess ne tik daudz mazāk nekā 2% no visiem [Nvidia] H100 [GPUs] bija Eiropā). Un tomēr vienlaikus ir izteikts stimuls pašpārliecinātībai regulēto iemeslu dēļ, ieskaitot GDPR.
VaiSLM pēdējā gada laikā ir ievērojami progresējusi, tomēr pārāk bieži tie tiek iecerēti kā “mini ķīmiji”, un mēs esam novērojuši ievērojamu veiktspējas kritumu, kas nav angliski valodas, gan attiecībā uz avota izpratni, gan teksta ģenerēšanas kvalitāti. Tāpēc mēs esam bijuši apmierināti, lai sasniegtu lielāko daļu savu mērķu:
- Faktiska alternatīva 7-8b modeļiem lupatam pat CPU un citās ierobežotās InfRA.
- Pilnībā pārbaudāmi modeļi, kas nāk ar atsauces atbalstu.
- Eiropas valodas veiktspējas saglabāšana. ”
Tomēr, protams, modeļi, kas ir atvērtā koda saskaņā ar Apache 2.0 licenci, nozīmē, ka ikviens varētu tos ņemt un izmantot brīvi jebkur pasaulē.
Koncentrējas uz zemējumu, citātiem un faktiem
Jauno PLEAS-RAG modeļu galvenā iezīme ir to vietējais atbalsts avota citēšanai ar burtiskiem citātiem, kas ir pilnībā integrēti modeļa secinājumu procesā.
Atšķirībā no post-hoc citēšanas metodēm vai ārējiem mazuļu cauruļvadiem, PLEAS-RAG modeļi tieši ģenerē citātus, izmantojot sintakse, kuru iedvesmojusi Wikipedia atsauces formāts.
Šī pieeja ļauj veikt īsākus, lasāmākus citēšanas fragmentus, saglabājot pārbaudāmību.
Citēšanas zemējumam ir funkcionāla loma regulētos iestatījumos.
Tādām nozarēm kā veselības aprūpe, juridiski un finanses-kur lēmumu pieņemšana ir jādokumentē un izsekojamas-šīs iebūvētās atsauces piedāvā tiešu ceļu uz auditējamību. PLEAS pozicionē šo dizaina izvēli kā ētisku imperatīvu, saskaņojot ar pieaugošajām normatīvajām prasībām skaidrojamā AI.
Proto aģents?
Pleias-RAG modeļi tiek aprakstīti kā “proto-agentiski”-tie var autonomi novērtēt, vai vaicājums ir saprotams, noteikt, vai tas ir niecīgs vai sarežģīts, un izlemt, vai atbildēt, pārformulēt vai atteikties, pamatojoties uz avota pietiekamību.
Viņu strukturētajā izvadē ietilpst valodas noteikšana, vaicājumu un avota analīzes pārskati un pamatota atbilde.
Neskatoties uz salīdzinoši mazo izmēru (pleas-RAG-350m ir tikai 350 miljoni parametru), modeļiem uzvedība tradicionāli ir saistīta ar lielākām, aģentu sistēmām.
Saskaņā ar Pleas teikto, šīs iespējas rodas no specializēta vidēja apmācības cauruļvada, kas sajauc sintētisko datu ģenerēšanu ar iteratīvas spriešanas pamudinājumiem.
Pleias-RAG-350M ir skaidri paredzēts ierobežotai videi. Tas labi darbojas standarta CPU, ieskaitot mobilās klases infrastruktūru.
Saskaņā ar iekšējiem etaloniem, nesaistītā GGUF versija rada pilnīgu spriešanas rezultātu aptuveni 20 sekundēs 8 GB RAM iestatījumos. Tās mazais nospiedums to ievieto nišā ar ļoti maziem konkurentiem, piemēram, Qwen-0,5 un Smollm, guess ar daudz spēcīgāku uzsvaru uz strukturētu avotu sintēzi.
Konkurences sniegums starp uzdevumiem un valodām
Etalona novērtējumos Pleas-RAG-350m un Pleas-RAG-1B pārspēj lielāko daļu atvērto modeļu zem 4 miljardiem parametru, ieskaitot LLAMA-3.1-8B un QWEN-2.5-7B, tādos uzdevumos kā Hotpotqa, 2Wikimultihopqa un Musice.
Šie vairāku hop lupatu etaloni pārbauda modeļa spēju pamatot vairākus dokumentus un identificēt traucējošos faktorus-kopīgas prasības uzņēmuma līmeņa zināšanu sistēmās.
Modeļu izturība attiecas uz daudzvalodu scenārijiem. Tulkotajos etalonu komplektos visā franču, vācu, spāņu un itāļu valodā Pleas modeļi izrāda nenozīmīgu snieguma pasliktināšanos.
Tas viņus atšķir no citiem SLM, kas parasti rodas 10–35% veiktspējas zaudējumos, apstrādājot vaicājumus, kas nav angliski.
Daudzvalodu atbalsts izriet no uzmanīga marķēšanas dizaina un sintētiskas pretrunīgas apmācības, kas ietver valodas maiņas vingrinājumus. Modeļi ne tikai atklāj lietotāja vaicājuma valodu, guess arī reaģē vienā valodā – svarīga globālās izvietošanas funkcija.
Turklāt Doria uzsvēra, kā modeļus varētu izmantot, lai palielinātu citu esošo modeļu veiktspēju, kuru uzņēmums jau var izmantot:
“Mēs iedomājamies modeļus, kas jāizmanto orķestrēšanas iestatījumos, jo īpaši tāpēc, ka to aprēķināšanas izmaksas ir zemas. Ļoti interesanti rezultāti no vērtēšanas puses: pat 350 m modelis izrādījās labs pilnīgi atšķirīgās atbildes nekā atbildes [Meta] Lama un [Alibaba] Qwen uzstājās plkst. Tātad ir īsts papildinājums, ko mēs attiecinām uz mūsu argumentācijas cauruļvadu, kas pārsniedz rentabilitāti… ”
Atvērt piekļuvi un licencēšanu
Pēc Dorijas domām un Tehnisks darbs Sīki aprakstot pleas-Rag ģimenes apmācību, modeļi tika apmācīti: “Parastais korpuss, lai izveidotu lupatu apmācības komplektu (no tā nāca visi 3 miljoni piemēru). Mēs izmantojām [Google] Gemma papildina argumentācijas sintētisko pēdu ģenerēšanu kopš licences, kas ļāva atkārtoti izmantot/pārkvalificēt. ”
Abi modeļi tiek izlaisti saskaņā ar Apache 2.0 licenci, ļaujot veikt komerciālu atkārtotu izmantošanu un integrāciju lielākās sistēmās.
Pleass uzsver modeļu piemērotību integrācijai meklēšanas asistentos, izglītības rīkos un lietotāju atbalsta sistēmās. Uzņēmums arī nodrošina API bibliotēku, lai vienkāršotu izstrādātāju strukturētu ievades-izejas formatēšanu.
Modeļu izlaišana ir daļa no plašāka Pleas spiediena, lai pārvietotu mazos LLM kā instrumentus strukturētai argumentācijai, nevis kā vispārējas nozīmes sarunvalodas robotprogrammatūras.
Izmantojot ārējo atmiņas arhitektūru un sistemātiskas atsauces metodes, Pleas-Rag sērija piedāvā caurspīdīgu, revidējamu alternatīvu necaurspīdīgākiem robežas modeļiem.
Nākotnes perspektīva
Raugoties nākotnē, Pleass plāno paplašināt modeļu iespējas, ilgāk apstrādājot kontekstu, stingrāku meklēšanas integrāciju un personības noregulēšanu konsekventākai identitātes prezentācijai.
Tiek izpētīta arī pastiprināšanas mācīšanās, jo īpaši tādās jomās kā citēšanas precizitāte, kur citātu verifikāciju var izmērīt algoritmiski.
Komanda arī aktīvi sadarbojas ar tādiem partneriem kā Wikimedia fonds, lai atbalstītu mērķtiecīgu meklēšanas integrāciju, izmantojot uzticamus avotus.
Galu galā pašreizējā lupatiņu specifisko ieviešanas, modeļu un darbplūsmu izmantošana var nokrist, jo tiek apmācīti un izvietoti modernāki AI modeļi, tie, kas ietver lupatu un aģentu rīku lietošanu dabiski. Kā Doria stāstīja VentureBeat caur DM:
VaiIlgtermiņa, mana pārliecība ir tāda, ka meklēšanas aģenti izjauks gan klasisko lupatu cauruļvadu, gan ilgos konteksta modeļus. Mēs esam sākuši virzīties šajā virzienā: tāpēc modelis jau ir aprīkots ar daudzām funkcijām, kas pašlaik ir ārējas lupatu lietojumprogrammās (vaicājumu pārformulēšana, atkārtota lietošana utt.). Mēs acīmredzot vēlamies iet tālāk un integrēt meklēšanas jaudas un avota apstrādes jaudas tieši pašā modelī. Mana pārliecība ir tāda, ka lupata pazudīs tādā veidā, jo aģentu modeļi to automatizē, spējot vadīt savas darbplūsmas.Vai
Izmantojot pleas-RAG-350M un 1B, uzņēmums derē, ka mazi modeļi-pārī ar spēcīgu spriešanas sastatnēm un pārbaudāmām izejām-var konkurēt ar daudz lielākiem kolēģiem, īpaši daudzvalodu un infrastruktūras ierobežotās izvietojumos.
avots