Home Tehnoloģija Rag var padarīt AI modeļus riskantākus un mazāk uzticamus, jauni pētījumi liecina

Rag var padarīt AI modeļus riskantākus un mazāk uzticamus, jauni pētījumi liecina

8
0

Adrienne Bresnahan/Getty Photographs

Izgatavota paaudze (RAG) strauji attīstās kā stabils ietvars organizācijām, kas vēlas izmantot visu ģeneratīvo AI spēku ar saviem biznesa datiem. Tā kā uzņēmumi cenšas pārsniegt vispārējās AI atbildes un izmantot savas unikālās zināšanu bāzes, lupatu tiltu vispārējās AI iespējas un jomai specifiskas zināšanas.

Simtiem, iespējams, tūkstošiem no Uzņēmumi jau izmanto Rag AI pakalpojumusar adopciju paātrinoties, kad tehnoloģija nogatavojas.

Arī: es pārbaudīju 10 AI satura detektorus, un šie 5 katru reizi pareizi identificēja AI tekstu

Tās ir labās ziņas. Sliktā ziņa: saskaņā ar Bloomberg ResearchLupata var arī ievērojami palielināt iespējas Bīstamu atbilžu iegūšanaApvidū

Pirms ienirt briesmās, pārskatīsim, kas ir lupata, un tās priekšrocības.

Kas ir lupata?

Lupata ir AI arhitektūra, kas apvieno ģeneratīvo AI modeļu stiprās puses – piemēram, Openai GPT-4Verdzība Meta lama 3vai Google gemma – ar informāciju no jūsu uzņēmuma ierakstiem. RAG ļauj lieliem valodu modeļiem (LLM) piekļūt un pamatot ārējās zināšanas, kas glabājas datu bāzēs, dokumentos un dzīvo iekšējās datu plūsmās, nevis paļaujas tikai uz LLMS iepriekš apmācītajām “pasaules zināšanām”.

Kad lietotājs iesniedz vaicājumu, lupatu sistēma vispirms iegūst visatbilstošāko informāciju no kurētas zināšanu bāzes. Pēc tam šī informācija kopā ar sākotnējo vaicājumu ievada LLM.

Maxime Vermeir, AI stratēģijas vecākais direktors Būdaapraksta lupatu kā sistēmu, kas ļauj “ģenerēt atbildes ne tikai no apmācības datiem, wager arī no jūsu sniegtajām īpašajām, aktuālajām zināšanām. Tas rada atbildes, kas ir precīzākas, atbilstošas ​​un pielāgotas jūsu biznesa kontekstam”.

Kāpēc izmantot lupatu?

Ragas lietošanas priekšrocības ir skaidras. Kaut arī LLM ir jaudīgi, viņiem trūkst informācijas, kas raksturīga jūsu uzņēmuma produktiem, pakalpojumiem un plāniem. Piemēram, ja jūsu uzņēmums darbojas nišas nozarē, jūsu iekšējie dokumenti un patentētās zināšanas ir daudz vērtīgākas atbildēm nekā tas, ko var atrast publiskās datu kopās.

Ļaujot LLM piekļūt jūsu faktiskajiem biznesa datiem-būt šiem PDFS, vārdu dokumentiem vai bieži uzdotajiem jautājumiem (FAQ)-vaicājuma laikā jūs saņemat daudz precīzākas un uz jūsu jautājumiem uz punktu.

Turklāt lupata samazina halucinācijas. Tas to dara, pamatojoties uz AI atbildēm uz ticamiem, ārējiem vai iekšējiem datu avotiem. Kad lietotājs iesniedz vaicājumu, lupatu sistēma iegūst atbilstošu informāciju no kurinātām datu bāzēm vai dokumentiem. Tas nodrošina šo faktisko kontekstu valodas modelim, kas pēc tam ģenerē atbildi, pamatojoties gan uz tā apmācību, gan uz iegūtajiem pierādījumiem. Šis course of padara mazāk ticamu, ka AI ir izgatavota informācija, jo tā atbildes var izsekot jūsu iekšējiem avotiem.

Arī: 60% AI aģentu strādā IT departamentos – lūk, ko viņi dara katru dienu

Kā Pablo arredondo, a Thomsons Reuters viceprezidents, pastāstīja Vadu“Tā vietā, lai atbildētu tikai uz atmiņām, kas kodētas sākotnējās modeļa apmācības laikā, jūs izmantojat meklētājprogramma, lai ievilktu reālus dokumentus – Neatkarīgi no tā, vai tā ir judikatūra, raksti vai kāds cits, un pēc tam noenkurojiet modeļa reakciju uz šiem dokumentiem. “

Rag-Empowered AI dzinēji joprojām var radīt halucinācijas, taču tas ir mazāks par to, ka notiks.

Vēl viena lupatu priekšrocība ir tā, ka tā ļauj iegūt noderīgu informāciju no neorganizētiem datu avotiem gadu, kuriem citādi būtu grūti piekļūt.

Iepriekšējās lupatu problēmas

Kamēr Rag piedāvā ievērojamas priekšrocības, tā nav burvju lode. Ja jūsu dati ir, UHM, slikti, prātā nāk frāze “atkritumu ieslēgšana, atkritumi ārā”.

Saistīta problēma: ja jūsu failos ir novecojuši dati, Rag izvilks šo informāciju un izturēsies pret evaņģēlija patiesību. Tas ātri novedīs pie visa veida galvassāpēm.

Arī: Vai vēlaties ģeneratīvu AI LLM, kas integrēti ar jūsu biznesa datiem? Jums ir nepieciešama lupata

Visbeidzot, AI nav pietiekami gudrs, lai sakoptu visus savus datus jūsu vietā. Jums būs jāorganizē faili, jāpārvalda Ragas vektora datu bāzes un jāintegrē tos ar LLM, pirms Rag-iespējota LLM būs produktīva.

Jaunatklātās lupatas briesmas

Lūk, ko atklāja Bloomberg pētnieki: lupata faktiski var padarīt modeļus mazāk “drošus” un to izvadi ir mazāk uzticami.

Bloomberg pārbaudīja 11 vadošos LLM, ieskaitot GPT-4O, Claude-3,5-Sonnet un LLAMA-3-8 B, izmantojot vairāk nekā 5000 kaitīgas uzvednes. Modeļi, kas noraidīja nedrošus vaicājumus standarta (ne-RAG) iestatījumos, radīja problemātiskas atbildes, kad LLM bija iespējota.

Viņi atklāja, ka pat “drošiem” modeļiem ir par 15–30% pieaugumu nedrošu iznākumu ar lupatu. Turklāt ilgāk iegūti dokumenti korelēja ar lielāku risku, jo LLM centās noteikt prioritāti drošībai. Jo īpaši Bloomberg ziņoja, ka pat ļoti droši modeļi “, kas atteicās atbildēt gandrīz uz visiem kaitīgajiem vaicājumiem, kas nav RAG, kļūst neaizsargātāki lupatu iestatījumā”.

Arī: kāpēc AI ētikas novārtā atstāšana ir tik riskants bizness – un kā rīkoties pareizi

Kādi “problemātiski” rezultāti? Bloomberg, kā jūs varētu gaidīt, pārbaudīja finanšu rezultātus. Viņi redzēja, ka AI ir noplūdušas sensitīvas klienta dati, izveidojot maldinošas tirgus analīzes un rada neobjektīvus ieguldījumu padomus.

Bez tam, modeļi ar lupatām iespējoti, visticamāk, radīja bīstamas atbildes, kuras varēja izmantot ar ļaunprātīgu programmatūru un politisko kampaņu.

Īsāk sakot, kā Amanda Stent, Bloomberg AI stratēģijas un pētījumu vadītāja CTO birojā paskaidroja: “šim pretintuitīvajam atradumam ir tālejoša ietekme, ņemot vērā to, kā visuresoši lupata tiek izmantota Gen AI lietojumprogrammās, piemēram, klientu atbalsta aģenti un jautājumi, kas saistīti ar sistēmām. Pārliecinieties, ka rezultāti ir piemēroti. “

Sebastians Gehrmans, Bloomberga atbildīgās AI vadītājs, piebilda: “Rag raksturīgā ārējo datu dizaina vilšana dinamiski rada neparedzamas uzbrukuma virsmas. Simjektēšanai nepieciešami slāņaini aizsardzības pasākumi, ne tikai paļaujoties uz modeļa pakalpojumu sniedzēju apgalvojumiem.”

Ko jūs varat darīt?

Bloomberg ierosina izveidot jaunas klasifikācijas sistēmas domēnam specifiskas bīstamības. Uzņēmumiem, kas izvieto lupatu, vajadzētu arī uzlabot savus aizsargus, apvienojot biznesa loģikas pārbaudes, faktu validācijas slāņus un Sarkanās komandas pārbaudeApvidū Finanšu sektoram, Bloomberg iesaka pārbaudīt un pārbaudīt savu lupatu AIS Potenciālai konfidenciālai atklāšanai, hipotētiskajam stāstījumam, objektivitātei un finanšu pakalpojumu nepareizu rīcības problēmām.

Arī: Daži slepenas AI uzņēmumi varētu sagraut bezmaksas sabiedrību, pētnieki brīdina

Jums šie jautājumi ir jāuztver nopietni. Tā kā regulatori ASV un ES pastiprina AI pārbaudi finanšu, lupatu laikā, lai arī jaudīgi, prasa stingrus, domēnam specifiskus drošības protokolus. Visbeidzot, wager ne mazāk svarīgi, es viegli redzu, ka uzņēmumi tiek iesūdzēti tiesā, ja viņu AI sistēmas klientiem nodrošina ne tikai sliktas, wager arī nepareizas atbildes un padomus.

Vai vēlaties vairāk stāstu par AI? Reģistrējieties inovācijāmmūsu iknedēļas biļetens.



avots

LEAVE A REPLY

Please enter your comment!
Please enter your name here