Home Tehnoloģija Valdības AI pusei ir nepieciešama skaidra atbildība

Valdības AI pusei ir nepieciešama skaidra atbildība

22
0

 

 

Tomēr telpā ir liels zilonis. Bez skaidra Atbildības ietvarišis 50 punktu ceļvedis riskē kļūt par piesardzības stāstu, nevis veiksmes stāstu. Kad AI sistēma halucinē, uzrāda aizspriedumus vai cieš no drošības pārkāpuma, kurš uzņemas atbildību? Šobrīd atbilde bieži ir “tā ir atkarīga”, un šī nenoteiktība ir inovācijas lielākais drauds.

Patiešām, vairāk nekā divu gadu desmitu laikā strādājot starp valdību, izglītības un komerciālo sektoru, esmu redzējis, kā atbildības nepilnības var novirzīt pat visvairāk pārdomātākās digitālās programmas. Valdības AI spiediens neatšķīrās, ja vien mēs nopietni nedomāsim par skaidru atbildības līniju noteikšanu no iepirkuma līdz izvietošanai.

Kāpēc iepirkuma caurspīdīgums nav obligāts

Pārāk bieži iepirkumu komandas apņemas izmantot AI rīkus, nesaprotot, kādos datu modeļos viņi ir apmācīti, kā tiek pieņemti lēmumi vai vai AI viņiem ir pat pareizais risinājums.

IT pakalpojumu sniedzēju necaurredzamībai šeit ir nozīmīga loma. Daudzi piegādātāji apmācības datus un algoritmus uzskata par patentētiem noslēpumiem, jēgpilnas caurspīdīguma vietā piedāvājot tikai augsta līmeņa aprakstus. Tikmēr iepirkuma personāls bieži nav apmācīts novērtēt AI raksturīgus riskus, tāpēc kritiski jautājumi par aizspriedumiem vai izskaidrojamību vienkārši netiek uzdoti.

Politiskais spiediens ātri panākt “AI risinājumu” var ignorēt pienācīgu uzticamības pārbaudi. AI ir kļuvis par tādu inovāciju marķieri, ka tas dažreiz var dzelzceļa pamataprīkojumu – tā vietā mums ir jāatstāj solis atpakaļ un jājautā, vai tas patiesībā ir pareizais darbam rīks.

Ja lēmumi ir saistīti ar vairākiem departamentiem un neviena persona nav pilnībā atbildīga par AI tehnisko pamatu apstiprināšanu, nepilnības kļūst neizbēgamas. Pircējiem pirms to ieviešanas ir jāveic praktiski rīki un jāizmanto etalonuzdevumu rīki, kas var izmērīt aizspriedumus. Ja piegādātāji izrāda vilcināšanos par caurspīdīgumu, pircējiem vajadzētu iet prom.

Atbildības izstrāde no pirmās dienas

Tātad, kā praksē izskatās jēgpilna piegādātāja atbildība? Tas sākas ar līgumiem, kas ietver atbildību par katru lēmumu, ko pieņem AI sistēma.

Piegādātājiem jāsniedz pilnībā caurspīdīgas lēmumu plūsmas un jāpaskaidro to pamatojums konkrētām izejām, kādus datus viņi izmantoja un kāpēc. Pēc tam pircējiem vajadzētu būt iespējai runāt ar atsauces klientiem, kuri jau ir ieviesuši līdzīgas AI balstītas sistēmas. Vissvarīgākais ir tas, ka piegādātājiem ir jāpierāda, kā viņu sistēmas var izsekot, revidēt un izskaidrot, kad viss notiek nepareizi.

Es atbalstu GDPR stila pieeju atbildības piešķiršanai, kas ir saistīta ar kontroli. Ja piegādātāji uzstāj uz melno kastu pārdošanu ar minimālu caurspīdīgumu, viņiem vajadzētu pieņemt lielāko daļu riska. Flipside, jo lielāka caurspīdīguma, konfigurējamības un kontroles viņi piešķir pircējiem, jo ​​vairāk viņi var dalīties šajā riskā.

Piemēram, ja piegādātājs izlaiž jaunu modeli, kas apmācīts uz datu kopas, kas smagi maina aizspriedumus, tas ir, bet, ja pircējs iegādājas a Rīks, kas balstīts uz lupatām Un nejauši ievieš sensitīvus datus, atbildība ir pircējam. Līgumiem ir skaidri jāidentificē katrs iespējamais neveiksmes scenārijs, jāpiešķir atbildība un jāizskaidro sekas.

Lai izvairītos no Amazon dronu un bez vadītāja automašīnu likteņa – IE tehnoloģijām, kas pastāv, bet arī joprojām ir iestrēgušas likumīgās robežas neskaidru atbildības ķēžu dēļ – publiskā sektora AI projekti jau pašā sākumā jāprojektē ar cilvēku pārraudzību. Vienmēr vajadzētu būt kādam, kurš pārbaudītu izejas un lēmumus, ar augstiem sākotnējiem sliekšņiem, kas pakāpeniski atpūšas, jo sistēmas konsekventi pierāda to precizitāti.

Galvenais ir izvairīties no situācijām, kad pārāk daudz pušu rada pelēkas atbildības zonas. Juridiskie speciālisti ir pavadījuši gadus, bloķējot progresu autonomos transportlīdzekļos un piegādes dronos tieši tāpēc, ka atbildības jautājumi joprojām ir neatbildēti. Mēs nevaram ļaut AI iet to pašu ceļu.

Apdrošināšanas realitātes pārbaude

Un kā ir ar apdrošināšanas nozares vietu visā šajā? Neass patiesība vismaz šobrīd ir tāda, ka apdrošinātāji nekur nav gatavi AI specifiskiem riskiem, un tā ir milzīga problēma publiskā sektora adopcijai.

Apdrošinātāju cenu risks, kas balstīts uz vēsturiskiem zaudējumu datiem, bet AI attīstās tik strauji, ka praktiski nav precedenta prasībām, kas saistītas ar modeļa novirzi, aizspriedumu izraisītu kaitējumu vai sistēmisku halucinācijas kļūdu. AI izvietošanā, kurās iesaistītas vairākas puses, parakstītāji cenšas novērtēt iedarbību bez kristāldzidra līgumiskā riska sadales.

Tehniskā necaurredzamība savieno problēmu. Paredzētāji reti gūst pietiekamu ieskatu par to, kā modeļi darbojas vai kādus datus tie ir apmācīti, kas padara gandrīz neiespējamu risku kvantitatīvi novērtēt ap aizspriedumiem vai tūlītēju iesmidzināšanas uzbrukumiem.

Regulatīvā nenoteiktība pievieno vēl vienu sarežģītības slāni. ES AI likums, Apvienotās Karalistes proinovācijas pieeja un nozarei specifiski noteikumi ir mainījušies, un tas apgrūtina apdrošinātājus noteikt konsekventus noteikumus un pircējiem zināt, kāds viņiem ir nepieciešams pārklājums.

AI ietvaru un politikas izplatība ir iepriecinoša, taču bez izpildes mehānismiem tie riskē kļūt par neko vairāk kā dārgiem dokumentiem. Mums ir jāiekļauj atbildība visos valdības standartos, lai padarītu tos par veicinātāju, nevis bloķētāju. Valdības AI iespēju rīcības plāns ir tehniski sasniedzams, bet tikai tad, ja mēs jau no paša sākuma veidojam skaidrus pārskatatbildības pasākumus, nevis izturēties pret to kā pārdomām.

Alastair Williamson-Pound ir galvenais Mercator Digital tehnoloģiju virsnieks, ar vairāk nekā 20 gadu pieredzi valdības, izglītības un komerciālajā sektorā. Viņš ir vadījis galvenās HMRC, GDS un centrālās valdības programmas.

avots