Lielbritānijas militārpersonas ļaus mākslīgajam intelektam ķemmēties par sensitīvu informāciju, lai novērstu datu noplūdes.
Aizsardzības ministrijas (MOD) amatpersonas saka, ka viņi pievēršas tehnoloģijai, lai samazinātu cilvēku kļūdu iespējamību, izraisot pārkāpumus.
Tas notiek pēc būtiska incidenta 2022. gadā, kad karavīrs nosūtīja izklājlapu, kurā bija informācija par SAS karaspēku un MI6 spiegiem uz uzticamiem afgāņu kontaktiem.
Noplūde bija viens no 49 atsevišķiem mod pārkāpumiem pēdējo četru gadu laikā – tikai četri bija publiski pazīstami.
Jauna tehnoloģija, ko nodrošina Austrālijas programmatūras uzņēmums Castlepoint Methods, tagad, lai iegūtu svarīgu informāciju, tagad apvienos valdības dokumentus un izklājlapas.
Pēc tam drošības tags neļautu sensitīvam saturam pa e -pastu vai izdrukāt.
Pasākums samazinās risku, ka personāla pieļauj kļūdas, apstrādājot lielas un sarežģītas datu kopas, sacīja Castlepoint izpilddirektors Račels Greavs.
Greaves kundze Teica Times Drošības marķēšana ir obligāta lielākajā daļā lielāko organizāciju – wager parasti tiek veikta manuāli.
Lielbritānijas militārie spēki ļaus mākslīgajam intelektam ķemmēties par sensitīvu informāciju, lai novērstu datu noplūdes (faila attēls)

Aizsardzības ministrijas (MOD) amatpersonas saka, ka viņi pievēršas tehnoloģijai, lai samazinātu cilvēku kļūdu iespējamību, izraisot pārkāpumus. Faila attēls: BA cīņas transportlīdzeklis Viltšīrā

Ziņas seko nozīmīgam incidentam 2022. gadā, kad karavīrs nosūtīja izklājlapu, kurā bija informācija par SAS karaspēku un MI6 spiegiem uz uzticamiem Afganistānas kontaktiem (faila attēls)
“Rudimentary” rīki, kurus pašlaik izvieto organizācijas, atklāj “vienkāršas šķautnes”, piemēram, personisko informāciju, kredītkaršu numurus un vārdus.
Tomēr ir cerība, ka Mod izmantotā jaunā tehnoloģija palīdzēs “aptvert klasifikācijas sarežģītību”.
MS Greaves paskaidroja: “Man jāzina, vai šis sīkums runā par amonija nitrātu [a key ingredient in explosives]vai fiziskās apsardzes amati uz perimetru, vai par uzmākšanos vai ļaunprātīgu izmantošanu aizsardzībā.
“Ir daudz lietu, kas liktu mums pieņemt noteiktu klasifikācijas lēmumu, kas nav viegli rakstīts tādā algoritmā. Tie ir jāinterpretē, izmantojot pareizu, pilnu saturu un konteksta klasifikāciju. ”
Castlepoint apmāca savu AI par “noteikumiem”, kas balstīti uz reālās pasaules intelektu, nevis esošajiem datiem, ļaujot tai efektīvi “parādīt savu darbu”, lai cilvēki varētu pārskatīt lēmumu un izlemt, vai to ignorēt.
Daži eksperti ir pauduši bažas par drošības riskiem, kas saistīti ar AI pieņemšanu.
Nacionālais kiberdrošības centrs šogad brīdināja organizācijas nesteigties pieņemt tehnoloģiju, jo palielinās sistēmu uzrādītā uzbrukuma virsma.