Home Tehnoloģija 8 veidi, kā palīdzēt jūsu komandām izveidot ilgstošu atbildīgu AI

8 veidi, kā palīdzēt jūsu komandām izveidot ilgstošu atbildīgu AI

21
0

virtualmage/iStock/Getty Photos Plus, izmantojot Getty Photos

Sekojiet ZDNET: Pievienojiet mūs kā vēlamo avotu Google tīklā.


ZDNET galvenās atziņas

  • IT, inženierzinātņu, datu un AI komandas tagad vada atbildīgus AI centienus.
  • PwC iesaka trīs līmeņu “aizsardzības” modeli.
  • Iegulstiet, nepiesprādzējieties, atbildīgs AI visā.

“Atbildīgs AI” mūsdienās ir ļoti karsts un svarīgs temats, un tehnoloģiju vadītāju un profesionāļu pienākums ir nodrošināt, lai mākslīgā intelekta darbs, ko viņi veic, vairo uzticību, vienlaikus saskaņojot ar biznesa mērķiem.

Piecdesmit seši procenti no 310 vadītājiem, kas piedalās jaunā PwC aptauja saka viņu pirmās līnijas komandas — IT, inženierzinātnes, dati un AI — tagad vada savus atbildīgos AI centienus. “Šī maiņa pieliek atbildību tuvāk komandām, kas veido AI, un redz, ka pārvaldība notiek tur, kur tiek pieņemti lēmumi, pārvēršot atbildīgu AI no atbilstības sarunas uz sarunu par kvalitātes nodrošināšanu,” norāda PwC autori.

Arī: Deloitte aptaujā teikts, ka patērētāji, visticamāk, maksās par “atbildīgiem” AI rīkiem

Saskaņā ar PwC aptauju atbildīgs AI, kas saistīts ar neobjektivitātes novēršanu un godīguma, pārredzamības, pārskatatbildības, privātuma un drošības nodrošināšanu, ir svarīgs arī uzņēmējdarbības dzīvotspējai un panākumiem. “Atbildīgs AI kļūst par uzņēmējdarbības vērtības virzītāju, palielinot IA, efektivitāti un inovācijas, vienlaikus stiprinot uzticēšanos.”

“Atbildīgs AI ir komandas sporta veids,” skaidro ziņojuma autori. “Tagad ir būtiskas skaidras lomas un stingras nodošanas iespējas, lai droši un pārliecinoši mērogotu, jo AI ieviešana paātrina.” Lai izmantotu atbildīga AI priekšrocības, PwC iesaka ieviest AI lietojumprogrammas darbības struktūrā ar trim “aizsardzības līnijām”.

  • Pirmā rinda: veido un darbojas atbildīgi.
  • Otrā rinda: Pārskati un regulē.
  • Trešā rinda: garantijas un revīzijas.

Izaicinājums sasniegt atbildīgu AI, ko minēja puse aptaujas respondentu, ir atbildīgu AI principu pārvēršana “mērogojamos, atkārtojamos procesos”, atklāja PwC.

Apmēram seši no desmit respondentiem (61%) PwC aptaujā apgalvo, ka atbildīgs AI ir aktīvi integrēts pamatdarbībās un lēmumu pieņemšanā. Aptuveni katrs piektais (21%) ziņo, ka atrodas apmācības posmā, koncentrējoties uz darbinieku apmācību, pārvaldības struktūru un praktisko norādījumu izstrādi. Atlikušie 18% apgalvo, ka viņi joprojām ir sākumposmā un strādā, lai izveidotu pamata politikas un sistēmas.

Arī: tik ilgi, SaaS: kāpēc AI norāda uz vienu vietu programmatūras licenču beigas — un kas notiks tālāk

Visā nozarē notiek diskusijas par to, cik stingri jābūt AI grožiem, lai nodrošinātu atbildīgu lietojumu. “Noteikti ir situācijas, kurās AI var sniegt lielu vērtību, taču reti uzņēmumu riska tolerances robežās,” sacīja Džeiks Viljamss, bijušais ASV Nacionālās drošības aģentūras hakeris un IANS Analysis mācībspēks. “LLM, kas ir pamatā lielākajai daļai aģentu un AI risinājumu, nerada konsekventu rezultātu, radot neparedzamu risku. Uzņēmumi augstu vērtē atkārtojamību, tomēr lielākā daļa ar LLM iespējoto lietojumprogrammu lielākoties lielākoties ir gandrīz pareizas.”

Šīs nenoteiktības rezultātā “mēs redzam, ka arvien vairāk organizāciju atceļ AI iniciatīvu pieņemšanu, jo tās saprot, ka nevar efektīvi mazināt riskus, jo īpaši tos, kas rada regulējuma iedarbību,” Viljamss turpināja. “Dažos gadījumos tas novedīs pie lietojumprogrammu darbības jomas maiņas un lietošanas gadījumiem, lai novērstu šo regulatīvo risku. Citos gadījumos tas novedīs pie visu projektu pārtraukšanas.”

8 ekspertu vadlīnijas atbildīgam AI

Nozares eksperti piedāvā šādas vadlīnijas atbildīgai AI veidošanai un pārvaldībai.

1. No sākuma līdz beigām izveidojiet atbildīgu AI: Padariet atbildīgu AI daļu no sistēmas projektēšanas un izvietošanas, nevis par pārdomām.

“Tehnoloģiju vadītājiem un vadītājiem AI atbildības nodrošināšana sākas ar to, kā tas ir izveidots,” ZDNET sacīja Rohans Sens, PwC US kibernoziegumu, datu un tehnoloģiju riska direktors un pētījuma ziņojuma līdzautors.

“Lai veidotu uzticēšanos un droši mērogotu AI, koncentrējieties uz atbildīga AI iekļaušanu katrā AI attīstības dzīves cikla posmā un iesaistiet tādas galvenās funkcijas kā kibernoziegums, datu pārvaldība, privātums un atbilstība normatīvajiem aktiem,” sacīja Senators. “Ieguliet pārvaldību agrīni un nepārtraukti.

Tāpat: 6 būtiski noteikumi AI izmantošanai jūsu programmatūras izstrādes procesā — un dangers Nr. 1

2. Piešķiriet AI mērķi — ne tikai AI izvietošanu AI labā. “Pārāk bieži vadītāji un viņu tehnoloģiju komandas AI uztver kā eksperimentēšanas rīku, ģenerējot neskaitāmus baitus datu tikai tāpēc, ka viņi to spēj,” sacīja Meta vecākā programmatūras arhitekte Danielle An.

“Izmantojiet tehnoloģiju ar gaumi, disciplīnu un mērķi. Izmantojiet AI, lai uzlabotu cilvēka intuīciju — lai pārbaudītu idejas, identificētu vājās vietas un paātrinātu apzinātu lēmumu pieņemšanu. Veidojiet sistēmas, kas uzlabo cilvēka spriedumu, nevis to aizstāj.”

3. Jau iepriekš pasvītrojiet atbildīga AI nozīmi. Saskaņā ar Džozefs Logans, iManage galvenais informācijas virsnieks, atbildīgām AI iniciatīvām “jāsākas ar skaidru politiku, kas nosaka pieņemamu AI izmantošanu un precizē, kas ir aizliegts.”

“Sāciet ar vērtības paziņojumu par ētisku lietošanu,” sacīja Logans. “No šejienes piešķiriet prioritāti periodiskām revīzijām un apsveriet vadības komitejas izveidi, kas aptvertu privātumu, drošību, juridisko, IT un iepirkumu. Pastāvīga pārredzamība un atklāta saziņa ir vissvarīgākā, lai lietotāji zinātu, kas ir apstiprināts, kas tiek gaidīts un kas ir aizliegts. Turklāt, ieguldot apmācībās, var palīdzēt nostiprināt atbilstību un ētisku izmantošanu.”

4. Padariet atbildīgu AI par galveno darba daļu. Atbildīgai AI praksei un uzraudzībai ir jābūt tikpat lielai prioritātei kā drošībai un atbilstībai, sacīja Maiks Blandina, Snowflake galvenais informācijas virsnieks. “Nodrošiniet, lai modeļi būtu pārredzami, izskaidrojami un bez kaitīgiem aizspriedumiem.”

Šādu centienu pamatā ir arī pārvaldības struktūras, kas atbilst regulatoru, padomju un klientu prasībām. “Šiem ietvariem ir jāaptver viss AI dzīves cikls — no datu iegūšanas līdz modeļu apmācībai, izvietošanai un uzraudzībai.”

Arī: labākie bezmaksas AI kursi un sertifikāti prasmju uzlabošanai — un es tos visus esmu izmēģinājis

5. Nodrošiniet cilvēkiem informāciju visos posmos: Padariet par prioritāti “nepārtraukti apspriest, kā atbildīgi izmantot AI, lai palielinātu vērtību klientiem, vienlaikus nodrošinot, ka tiek risinātas gan datu drošības, gan IP problēmas,” sacīja Tonijs Morgans, Precedence Designs vecākais inženieris.

“Mūsu IT komanda izskata un rūpīgi pārbauda katru apstiprināto AI platformu, lai pārliecinātos, ka tā atbilst mūsu standartiem, lai aizsargātu mūs un mūsu klientus. Lai ievērotu jauno un esošo IP, mēs pārliecināmies, ka mūsu komanda ir izglītota par jaunākajiem modeļiem un metodēm, lai viņi varētu tos piemērot atbildīgi.”

6. Izvairieties no paātrinājuma riska: Daudzām tehnoloģiju komandām ir “vēlme ieviest ģeneratīvo AI ražošanā, pirms komanda ir saņēmusi atbildi uz jautājumu X vai risku Y”, sacīja Endijs Zenkevičs, Epiic dibinātājs un izpilddirektors.

“Jauna mākslīgā intelekta iespēja būs tik aizraujoša, ka projekti iekasēs maksu, lai to izmantotu ražošanā. Rezultāts bieži vien ir iespaidīga demonstrācija. Tad viss salūzt, kad īstie lietotāji sāk uz to paļauties. Iespējams, ir nepareiza veida caurskatāmības nepilnība. Varbūt nav skaidrs, kurš ir atbildīgs, ja atdodat kaut ko nelikumīgu. Atvēliet papildu laiku riska kartei vai pārbaudiet modeļa izskaidrojamību. Atbrīvojieties no sākotnējās nāves problēmas.

Tāpat: visi domā, ka mākslīgais intelekts pārveidos viņu biznesu, taču tikai 13% to dara

7. Dokuments, dokuments, dokuments: Ideālā gadījumā “katram mākslīgā intelekta pieņemtajam lēmumam jābūt reģistrētam, viegli izskaidrojamam, pārbaudāmam, un tam ir jābūt skaidrai takai, kas cilvēkiem jāseko,” sacīja Makgīhijs. “Jebkura efektīva un ilgtspējīga AI pārvaldība ietvers pārskatīšanas ciklu ik pēc 30 līdz 90 dienām, lai pareizi pārbaudītu pieņēmumus un veiktu nepieciešamos pielāgojumus.”

8. Pārbaudiet savus datus: “Tam, kā organizācijas iegūst apmācību datus, var būt ievērojamas drošības, privātuma un ētiskas sekas,” sacīja Fredriks Nilsons, Axis Communications Amerikas viceprezidents.

“Ja AI modelī pastāvīgi ir neobjektivitātes pazīmes vai tas ir apmācīts izmantot ar autortiesībām aizsargātu materiālu, klienti, visticamāk, divreiz padomās pirms šī modeļa izmantošanas. Uzņēmumiem, apmācot AI modeļus, ir jāizmanto savas, rūpīgi pārbaudītas datu kopas, nevis ārējie avoti, lai izvairītos no sensitīvas informācijas un datu infiltrācijas un izfiltrēšanas. Jo vairāk kontrolējat modeļus izmantotos datus, jo ētiskāk ir mazināt bažas.”

Saņemiet rīta populārākos stāstus savā iesūtnē katru dienu, izmantojot mūsu Tech Right now biļetens.



avots

LEAVE A REPLY

Please enter your comment!
Please enter your name here