Home Tehnoloģija Openai sniedz mums ieskatu, kā tas uzrauga ļaunprātīgu izmantošanu Chatgpt

Openai sniedz mums ieskatu, kā tas uzrauga ļaunprātīgu izmantošanu Chatgpt

20
0

Openai jaunākais ziņojums par ļaunprātīgu AI izmanto pasvītrojumu to, ka AI uzņēmumi staigā starp viņu tērzēšanas robotu ļaunprātīgas izmantošanas novēršanu, un pārliecina lietotājus, ka viņu privātums tiek ievērots.

Līdz ziņotkas šodien samazinājās, uzsver vairākus gadījumus, kad Openai izpētīja un izjauca kaitīgu darbību, kas saistīta ar tā modeļiem, koncentrējoties uz izkrāpšanu, kiberuzbrukumiem un valdības saistītām ietekmes kampaņām. Tomēr tas notiek arvien pieaugošajā pārbaudē par cita veida AI risku, iespējamo tērzēšanas robotu psiholoģisko kaitējumu. Tikai šogad tikai vairāki ziņojumi par to, ka lietotāji izdara paškaitējumus, pašnāvības un slepkavības darbības pēc mijiedarbības ar AI modeļiem. Šis jaunais ziņojums kopā ar iepriekšējo uzņēmuma atklāšanu sniedz zināmu papildu ieskatu par to, kā Openai moderē tērzēšanu dažāda veida ļaunprātīgai lietošanai.

Openai sacīja, ka kopš tā laika, kad tā sāka ziņot par sabiedrības draudiem 2024. gada februārī, tā ir izjaukusi un ziņojusi par vairāk nekā 40 tīkliem, kas pārkāpa viņu lietošanas politiku. Šodienas ziņojumā uzņēmums dalījās ar jauniem gadījumu pētījumiem no pagājušā ceturkšņa un detalizēta informācija par to, kā tas atklāj un izjauc savu modeļu ļaunprātīgu izmantošanu.

Piemēram, uzņēmums identificēja organizētu noziedzības tīklu, kas, kā ziņots, atrodas Kambodžā, kurš mēģināja izmantot AI, lai pilnveidotu tās darbplūsmas. Turklāt Krievijas politiskās ietekmes operācija, kā ziņots, izmantoja ChatGpt, lai ģenerētu video uzvednes citiem AI modeļiem. Openai arī atzīmēja ar Ķīnas valdību saistītajiem kontiem, kas pārkāpa tās politiku valsts drošības lietošanā, ieskaitot pieprasījumus ģenerēt priekšlikumus liela mēroga sistēmām, kas paredzētas sociālo mediju sarunu uzraudzībai.

Uzņēmums jau iepriekš ir teicis, ieskaitot tā konfidencialitātes politikaka tas izmanto personas datus, piemēram, lietotāju uzvednes, lai “novērstu krāpšanu, nelikumīgu darbību vai nepareizu izmantošanu”. Openai ir arī teicis, ka tā paļaujas gan uz automatizētām sistēmām, gan cilvēku recenzenti uzraudzīt aktivitāti. Wager šodienas ziņojumā uzņēmums piedāvāja nedaudz lielāku ieskatu savā domāšanas procesā, lai novērstu ļaunprātīgu izmantošanu, vienlaikus plašāk aizsargājot lietotājus.

“Efektīvi atklāt un izjaukt draudus, neizjaucot ikdienas lietotāju darbu, mēs izmantojam niansētu un informētu pieeju, kas koncentrējas uz draudu dalībnieku uzvedības modeļiem, nevis izolētu modeļa mijiedarbību,” ziņojumā rakstīja uzņēmums.

Lai gan valsts drošības pārkāpumu uzraudzība ir viena lieta, uzņēmums nesen arī ieskicēja, kā tas novērš savu modeļu kaitīgu izmantošanu lietotājiem, kuri piedzīvo emocionālas vai garīgas ciešanas. Nedaudz vairāk kā pirms mēneša uzņēmums publicēja a Blog Post, lai sīki aprakstītu, kā tas rīkojas ar šāda veida situācijām. Ziņa nāca klajā ar plašsaziņas līdzekļu atspoguļojumu par vardarbīgiem incidentiem, kas, kā ziņots, bija saistīti ar Chatgpt mijiedarbību, ieskaitot slepkavību-pašnāvību Konektikutā.

Uzņēmums sacīja, ka tad, kad lietotāji raksta, ka viņi vēlas sevi sāpināt, Chatgpt ir apmācīts neievērot un tā vietā atzīt lietotāja jūtas un virziet viņus uz palīdzību un reālās pasaules resursiem.

Kad AI atklāj, ka kāds plāno kaitēt citiem, sarunas tiek apzīmētas ar cilvēku pārskatīšanu. Ja cilvēku recenzents nosaka, ka persona rada nenovēršamu draudu citiem, viņi var par viņiem ziņot tiesībaizsardzības iestādēm.

Openai arī atzina, ka tā modeļa drošības rādītāji var pasliktināties ilgākai lietotāju mijiedarbībai, un sacīja, ka tā jau strādā, lai uzlabotu savus aizsardzības pasākumus.

avots