Home Jaunumi Vai AI izlems, vai iegūsit savu nākamo darbu? Jauns pētījums saka, ka...

Vai AI izlems, vai iegūsit savu nākamo darbu? Jauns pētījums saka, ka tas varētu

15
0

Austrālijas darba devēji arvien vairāk izmanto mākslīgā intelekta nomas sistēmas, lai pārbaudītu un atlasītu darba kandidātus, taču jaunie pētījumi ir atklājuši, ka tehnoloģija rada nopietnu diskriminācijas risku.

AI sistēmas sola ietaupīt darba devēju laiku un naudu personāla atlases procesā, izmantojot progresīvas tehnoloģijas, piemēram, CV skenerus un vokālos novērtējumus, lai “klasificētu, sarindotu un vērtētu” darba pretendentus.

Tas nozīmē, ka datorprogramma šobrīd varētu novērtēt darba meklētāja pieteikumu un to pieņemt vai noraidīt, pamatojoties uz tā mašīnas izpratni, pirms persona sasniedz intervijas posmu ar cilvēku.

Tomēr jaunie pētījumi no Dr Natālijas Šērda, advokātes un pēcdoktorantūras stipendiāta Melburnas universitātes, ir atradusi AI pieņemšanas sistēmas, kas var “iespējot, pastiprināt un pastiprināt vēsturiski atstumto grupu diskrimināciju”.

“Ir daži nopietni riski, ko rada veids, kādā šīs sistēmas izmanto darba devēji, tāpēc riski jau nelabvēlīgā situācijā esošām grupām darba tirgū – sievietes, darba meklētāji ar invaliditāti vai [from] Neiegūstot runājošu pieredzi, vecāki kandidāti, “viņa stāsta ABC Radio Nationwide likuma ziņojumam.

Apmēram 62 procenti Austrālijas organizāciju izmantoja AI “plaši vai mēreni” kā daļu no viņu personāla atlases procesiem pagājušajā gadā, saskaņā ar Atbildīgs AI indekssApvidū

Tomēr Austrālijai šobrīd nav īpašu likumu, lai regulētu šo rīku darbību vai kā organizācijas tos var izmantot. Tika cerēts, ka ai būs Beigu aizspriedumi nomas procesā Guess vairāki labi publiskoti gadījumi Amerikā ir uzsvēruši, ka notiek pretēji.

Vienā piemērā Amazon izstrādātā AI sistēma iemācījās pazemināt darba meklētāju lietojumus, kuri savā CVS lietoja vārdu “sieviešu”.

AI rīki, ko izmanto īrēšanā

Dr Šērds intervēja 23 cilvēkus kā daļu no viņas pētījumiem par AI īres sistēmām. Dalībnieki galvenokārt bija vervētāji, kuri bija strādājuši mazās, vidējās un/vai lielās organizācijās – gan privātās, gan publiskajās, kā arī dažādās nozarēs.

Viņa arī runāja ar diviem karjeras treneriem, lai izprastu AI pieņemšanas prakses ietekmi uz darba kandidātiem, kā arī vadošo Austrālijas AI ekspertu un diviem liela AI izstrādātāja darbiniekiem – AI pakalpojumu direktoru un AI ētikas vadītāju.

Austrālijas organizāciju starpā pieaug AI rīku izmantošana darbā pieņemšanā. (Getty: Zia Soleil)

Viņas uzmanības centrā bija trīs personāla atlases skrīninga aspekti: CVS, kandidātu novērtējumi (kas var ietvert psiholoģiskus vai psihometriskus testus) un video (“Robo”) intervijas.

Robo intervijas parasti ietver kandidātus, kas reģistrē sevi, sniedzot atbildes uz virkni jautājumu, kurus pēc tam novērtē AI. Dr Sheard saka, ka ir labi zināmi gadījumi AI rīku sākotnēji, izmantojot “pretrunīgi vērtēto paņēmiens, ko sauc par sejas analīzi“Analizējot šīs intervijas.

“Tas apskatīja pretendentu sejas īpašības un kustības, lai novērtētu viņu uzvedību, personību. [For example]tā gribēja redzēt [if] viņi [were] Aizrautīgs vai dusmīgs, kad viņi runāja ar klientiem. “

2019. gadā Amerikas elektroniskās privātuma informācijas centrs iesniedza sūdzību pret trešo personu personāla atlases aģentūras HireVue par programmatūru, kuru tā izmantoja, lai analizētu video intervijas ar pretendentiem, apgalvojot, ka rezultāti ir “neobjektīvs, neaptverams un nav atkārtojams“.

Sejas analīze ir bijusi zinātniski diskreditētsApvidū Guess Dr Sheard brīdina, ka nav ieviesti likumi, kas aizliedz tā izmantošanu, un tāpēc “dažas sistēmas to joprojām var iekļaut”.

Kā AI īrēšanas sistēmas ietekmē atstumtajus kandidātus?

AI īres rīki var izjust datu aizspriedumus, Dr Sheard Saka, jo sistēmas mācās no informācijas, kas viņiem tiek barota.

Dažas AI īres sistēmas tiek veidotas, piemēram, izmantojot lielus valodu modeļus, un, ja tām trūkst datu kopu no nelabvēlīgā situācijā esoša grupas, “tie nebūs reprezentatīvi” plašākam iedzīvotāju skaitam, saka akadēmiķis.

Tas ir līdzīgi gadījumā, ja AI sistēmas apmācības datos ir aizspriedumi, kas nozīmē, ka tā pieņem un reproducē tās pašas aizspriedumi un diskriminējošā prakse kā rīki, ko izmanto tā attīstībā.

Pūlis cilvēku, kas staigā pa ielu, pārvadājot iepirkumu maisiņus.

Austrālijai nav īpašu likumu, kā regulēt, kā darbojas AI īres rīki. (AAP: Bianca de Marchi)

“Viņi ir apmācīti par lietām, kuras tiek nokasītas no interneta. Piemēram, mēs zinām … tikai apmēram 15 procenti sieviešu veicina rakstus par Wikipedia. Tātad tajā ir iekļauts vīrietis, kuru pēc tam var ievest personāla atlases procesos.”

Viens no iemācītām dzimumu diskriminācijas piemēriem notika Amazon, kad tā Izstrādāts AI īres modelis 2014. gadā Balstoties uz CVS, kas savākti no pretendentiem programmatūras izstrādātāju pozīcijām 10 gadu laikā.

“Šis modelis iemācījās sistemātiski diskriminēt sievietes, jo tā ir lauka, kurā dominē vīrieši. [Many of] Šie CV nāca no vīriešiem, un tāpēc sistēma iemācījās pazemināt to sieviešu pielietojumu, kuras pieteicās uz pozīcijām, izmantojot šo rīku, it īpaši, ja viņi lietojumprogrammā lieto vārdu “sievietes”. Piemēram, [if] viņi [wrote they] Apmeklēja sieviešu koledžu, “saka Dr Sheard.

“Un tas arī izvēlējās valodu stilus, kurus izmanto vīrieši, tāpēc, kad vīrieši parasti lietoja konkrētus vārdus… piemēram, izpildīti vai darbojoši, tas uzlaboja šīs lietojumprogrammas.”

Tiek ziņots, ka personāla atlases rīks ir seksistisks un galu galā ir nodots metāllūžņos.

AI rīki zem mikroskopa ASV

Amerikā vairākas sūdzības apgalvo, ka AI rīki ir diskriminējuši darba pretendentus no dažādām vidēm.

Vienā gadījumā tika apgalvots, ka darbā pieņemšanas procesā Hirevue izmanto nomas programmatūru sistemātiska diskriminācija un pārkāpa Kolorādo antidiskriminācijas likumu (CADA), Amerikas ar invaliditāti likumu (ADA) un Civiltiesību likuma VII sadaļu.

Sūdzībā tiek apgalvots, ka DK, kurš ir pamatiedzīvotājs un ir nedzirdīga sieviete, kas runā ar nedzirdīgu akcentu, vairāk nekā piecus gadus strādāja sava darba devēja labā, un viņas vadītājs viņu mudināja pieteikties sezonālajam vadītājam amatā savā uzņēmumā.

Viņai bija pieredze un kvalifikācija, kas nepieciešama paaugstināšanai amatā, taču viņa sacīja, ka viņa tika noraidīta par lomu pēc automatizētas video intervijas un novērtēšanas ar Hirvue pabeigšanu.

HireVue izmanto automatizētas runas atpazīšanas sistēmas, lai ģenerētu stenogrammas, pamatojoties uz intervijas audio, un tiek apgalvots, ka šīs sistēmas ir sliktākas personām, kas nav baltas, kā arī nedzirdīgas vai cietsirdīgas skaļruņi.

“Veids, kā šīs sistēmas [assess your communication skills] ir novērtējot, cik labi jūs runājat standarta angļu valodā … [so] Ja runājat angliski kā otro valodu un, runājot, izmantojat nestandarta angļu valodu, tad jūs, visticamāk, tiks vērtēts, ka jums nav labas komunikācijas prasmes no šīm sistēmām, “saka Dr Sheard.

Pēc tam, kad DK tika informēta, viņa nesaņēma akciju, viņa saņēma e -pastu ar atsauksmēm par to, kā uzlabot HireVue novērtējumu, ieskaitot virzienu uz “praktizē aktīvu klausīšanos”.

“Tas liek jums apšaubīt, kāda veida cilvēku uzraudzība tika nodrošināta visam šim procesam? Jo kādā brīdī cilvēkam vajadzēja iejaukties un teikt:” Nu, tas ir tikai pretrunā ar to, ko mēs zinām par šo cilvēku, “” saka Dr Sheard.

Atsevišķā gadījumā tika konstatēts, ka apmācības grupa, kas tika pieņemta darbā ASV, ir ieprogrammējusi īres sistēmu, lai automātiski noraidītu sieviešu pretendentes, kas vecākas par 55 gadiem, un vīriešu pretendenti, kas vecāki par 60 gadiem, kā rezultātā tika noraidīti 200 kvalificēti kandidāti.

Darba devēju tiesā nogādāja vienlīdzīgu nodarbinātības iespēju komisārs – prasība, kuras rezultātā tika panākta USD 365 000 izlīgums.

Vēl viena sūdzība, ko Amerikas Pilsoņu brīvību savienības fonds (ACLU) izvirzīja pret AI pieņemšanas sistēmu nodrošinātāju, kas izstrādā, pārdod un pārvalda tiešsaistes novērtējumus darba devējiem, apgalvo, ka novērtējumi, kas diskriminē invaliditātes un/vai rases dēļ.

Viena no ACLU sūdzībām ir tāda, ka algoritmiski virzīts adaptīvās darbinieku personības checks nelabvēlīgi ietekmē “autistiskus cilvēkus, citādi neirodivergentus cilvēkus un cilvēkus ar garīgās veselības traucējumiem, piemēram, depresiju un trauksmi”.

Fonds saka, ka tas notiek tāpēc, ka tas pārbauda raksturlielumus, kas ir “tuvu viņu invaliditātes tuvinājumi” un kuras lielākajai daļai pozīciju “, iespējams, nav vajadzīgas būtiskām darba funkcijām”. Tas piebilst, ka šo raksturlielumu ievērojami ietekmēs to pretendentu skaitu ar invaliditāti.

“Ja jūs esat darba meklētājs, kurš piedzīvo depresiju, jūs, iespējams, negrasāties vērtēt pozitivitāti, tāpēc tas tiešām būs invaliditātes aizstājējs, kas jums varētu būt, un, iespējams, jūs varētu filtrēt no procesa, kad jūs varētu spēt izpildīt visas lomas būtiskās prasības,” saka Dr Sheardd.

Kā ir ar AI īres rīkiem Austrālijā?

Līdzīga tiesiskā darbība vēl nav notikusi Austrālijā, wager nopelnu aizsardzības komisārs, kas pārskata tādus lēmumus par nodarbinātību kā darba progresēšana, ir piedāvājis norādījumus darba devējiem publiskajā sektorā, izmantojot AI īrēšanas sistēmas.

Persona, kas strādā pie klēpjdatora ar savu atvērto un mobilo kanālu.

Ir brīdinājumi, kas tirgū ir AI personāla atlases rīki, iespējams, nav rūpīgi pārbaudīti. (Unsplash: Austin Distel)

Tas nāca pēc tam, kad tā komisārs atcēla 11 lēmumus par paaugstināšanu amatā, ko valdības aģentūru dienesti ir pieņēmuši Austrālijā vienā personāla atlases kārtā 2021.-22. Finanšu gadā.

Pretendentiem tika prasīts iziet cauri AI novērtējumu secībai, ieskaitot psihometrisko pārbaudi, anketas un pašreģistrētas video atbildes. Neviens cilvēks nebija iesaistīts procesā vai pārskatīšanā, un komisārs atklāja, ka sistēma noveda pie tā, ka nopelnītie pretendenti izlaiž paaugstinājumus.

Kopš tā laika nopelnu aizsardzības komisārs ir brīdinājis, ka ne visi tirgū esošie AI personāla atlases rīki ir rūpīgi pārbaudīti, kā arī tie netiek garantēti, ka tie ir pilnīgi objektīvi.

“Es domāju, ka ir absolūti nepieciešama regulēt šīs AI skrīninga sistēmas,” saka Dr Sheard.

“Dažas grupas ir aicinājušas uz šo sistēmu pilnīgu aizliegumu, un es domāju, ka šim argumentam ir daudz nopelnu, it īpaši, ja atrodamies situācijā, kad mums nav pareizu likumīgu aizsardzības pasākumu, un kur mēs īsti nesaprotam šo sistēmu ietekmi uz jau atstumtajām grupām darba tirgū.”

Kaut arī darba devēji var apgalvot, ka šīs AI īres sistēmas rada efektīvāku personāla atlases procesu, Dr Sheard saka, ka šis arguments ir jāsabalansē ar “riskiem, kas saistīti ar atstuminātu grupu kaitējumu”.

Februārī nama pastāvīgā nodarbinātības, izglītības un apmācības komiteja publiskoja a Ziņojums par darba nākotni Tas ieteica aizliegt AI sistēmu izmantošanu galīgajam lēmumu pieņemšanai HR bez jebkādas cilvēku pārraudzības.

Līdz Austrālijas valdība ir apskatījis arī AI tehnoloģiju regulējumu, tostarp to, vai Austrālijai vajadzētu ieviest AI aktu, kas līdzīgs tam, kas izveidots Eiropas Savienībā.

“Valdība ierosināja, ka vajadzētu būt kaut kādai obligātai, ko viņi sauc par AI augsta riska izmantošanu, un augsta riska lietojumprogrammas parasti tiek uzskatītas par šīm AI skrīninga sistēmām,” saka Dr Sheard.

“Šis course of nav noslēdzies, un tas ir nedaudz gaisā ar vēlēšanām … [so] Tam nav laika grafika. “

Pa to laiku Dr Sheard uzskata, ka Austrālijas valdībai ir jāpārskata savi diskriminācijas likumi, lai pārliecinātos, ka tie joprojām ir “piemēroti mērķim” un aptver “šīs jaunās tehnoloģijas, it īpaši par atbildību”.

avots