7 Minutės
Pretenduoti į darbą ir taip yra pakankamai įtempta — o kas, jei nematomas algoritmas tyliai lemia jūsų likimą? Nauja kolektyvinė ieškinio byla siekia priversti didesnį skaidrumą dirbtinio intelekto (DI) įrankių atžvilgiu, kurie skaičiuoja kandidatų balus, teigdama, kad tokie įvertinimai turėtų būti traktuojami kaip vartotojų ataskaitos.
Neaiškūs vertinimo algoritmai teisinėje apžvalgoje
Ieškinys, pateiktas Kalifornijos valstijos teisme, inicijuotas dviejų moterų, dirbančių STEM srityse, kurios teigia, kad, nors buvo kvalifikuotos, jas atranka pašalino. Svarstymo centre atsidūrė skaitmeninis „match score“ — skaitinis atitikimo balas, kurį sukuria „Eightfold“, įdarbinimo DI platforma. Šis balas agreguoja informaciją iš darbo skelbimų, darbdavių reikalavimų, gyvenimo aprašymų ir kartais viešų profilių, kad kiekvienam kandidatui priskirtų 0–5 įvertinimą, rodantį, kiek gerai jis atitinka pareigas.
Pareikštosios pusės teigia, kad procesas veikia kaip vartotojo ataskaita, kurią reglamentuoja Jungtinių Valstijų Sąžiningos kredito ataskaitų įstatymas (Fair Credit Reporting Act, FCRA). Jei teismai pritars tokiam požiūriui, darbdaviai ir DI paslaugų teikėjai galėtų būti įpareigoti informuoti kandidatus, gauti jų sutikimą ir suteikti galimybę ginčyti balus — tokias pačias apsaugas, kurių žmonės turi dėl kredito ir foninių patikrų.
Teisinis ginčas iškelia esminį klausimą apie dirbtinio intelekto taikymą įdarbinimo procesuose: ar algoritminė atranka, veikianti kaip „juoda dėžė“, sutrumpina ar atima galimybes kandidatams, kurie neturi prieigos prie paaiškinimų ar ginčo mechanizmų?
Kodėl tai svarbu milijonams kandidatų
Dirbtinis intelektas jau plačiai integruotas į įdarbinimo praktikas. Pasaulio ekonomikos forumas (World Economic Forum) lygina, kad apie 88 % įmonių naudoja tam tikro tipo DI pradiniam kandidatų atrankos etapui. Šis mastas kelia svarbų klausimą: ar kvalifikuoti kandidatai pašalinami dėl neaiškių algoritminių reitingų, kurių jie nemato ir kuriuos negali apskųsti?
Vienas iš ieškinio iniciatorių, Erin Kistler, teigė, kad pateikė šimtus paraiškų ir turėjo jausmą, jog egzistuoja „nematoma jėga“, blokuojanti sąžiningą įvertinimą. Tokios situacijos pabrėžia poreikį vartotojų apsaugos taisyklėms, kurias Kongresas nustatė prieš kelis dešimtmečius, pritaikomumo diskusijoje DI kontekste.
Be individualių pavyzdžių, argumentuojama ir plačiau: automatizuoti reitingai gali sustiprinti esamas šališkumo formas (algoritminė diskriminacija), perduoti netikslumų pasekmes arba remtis kreivais duomenų šaltiniais. Šios problemos yra susijusios su duomenų kilme (data provenance), požymiais (features), kurie naudojami modeliuose, bei su modelių audito ir ataskaitų prieinamumu rinkai ir reguliuotojams.
Ką ieškinys siekia — ir kaip reagavo Eightfold
Pareiškėjos prašo teismo paskirti „Eightfold“ laikytis valstijos ir federalinių vartotojų ataskaitų įstatymų, taip pat priteisti finansinę kompensaciją darbuotojams, kuriems, jų manymu, buvo padaryta žala automatinių vertinimų dėl klaidingų ar neperžiūrėtų balų. Jenny R. Yang, bylos advokatė ir buvusi JAV Lygių užimtumo galimybių komisijos (EEOC) pirmininkė, išsakė aiškų principą: automatizuoti įvertinimai atima iš darbuotojų galimybes, kurių jie neturėjo progos peržiūrėti ar ištaisyti.
„Eightfold“ atsakė teiginiu, kad bendrovė remiasi duomenimis, kuriuos kandidatai dalijasi arba kuriuos pateikia klientai, ir kad ji nesinaudoja „socialinių tinklų skreipinimu“ (angl. scraping social media). Įmonė pabrėžė įsipareigojimą atsakingam DI, skaidrumui bei atitikčiai duomenų apsaugos ir darbo teisės reikalavimams ir pavadino kaltinimus nepagrįstais. Toks atsakas išryškina įprastą įmonių taktiką: pabrėžti atsakomybę, kartu ginantis modelių veikimą ir duomenų šaltinius.
Pagrindinės teisinės ir praktinės pasekmės
- Jeigu teismai pripažintų DI atitikimo balus vartotojų ataskaitomis, paslaugų teikėjams tektų diegti pranešimų, sutikimo procedūrų ir ginčų mechanizmus.
- Darbdaviai, naudodami trečiųjų šalių DI priemones, galėtų susidurti su naujomis atitikties pareigomis ir potencialia atsakomybe už tai, kaip balai skaičiuojami ir taikomi.
- Byla gali paskatinti didesnį pramonės skaidrumą dėl duomenų šaltinių, modelių požymių ir šališkumo audito rezultatų.
Pabūkime vaizduotėje: jūs kandidatuojate į ilgai lauktą svajonių darbą, o jūsų paraiška tyliai įvertinama žemu balu „juodojoje dėžėje“. Neturėdami būdo pamatyti ar apskųsti tą reitingą, ieškotojai lieka spėlioti, kodėl negauna pokalbių. Tokia nežinia ir neteisingumo pojūtis maitina šią teisinę iniciatyvą ir kelia platesnį visuomeninį susirūpinimą dėl DI sprendimų poveikio karjerai.
Ką verta stebėti toliau
Byla greičiausiai išprovokuos platesnę diskusiją apie DI reguliavimą įdarbinime. Politikos formuotojai, privatumo gynėjai ir darbo grupės spaudžia dėl aiškesnių taisyklių dėl automatizuoto sprendimų priėmimo; teismo išvada, kad FCRA taikoma „match scores“, būtų reikšmingas poslinkis. Toks precedentas galėtų įpareigoti paslaugų teikėjus skelbti informacijas apie naudojamus duomenų šaltinius, taikomus modelius ir suteikti prieigą prie ginčų mechanizmų kandidatams.
Darbdaviams ir DI tiekėjams ši byla primena praktinę skaidrumo vertę: aiškūs pranešimai kandidatams, paaiškinamų balų sistemos ir galimybės kreiptis dėl peržiūros gali sumažinti teisinę riziką ir stiprinti pasitikėjimą. Techninės priemonės, tokios kaip modelių kortelės (model cards), duomenų kilmės ataskaitos ir reguliariai atnaujinami šališkumo audito rezultatai (bias audits), gali būti tiek teisinių reikalavimų, tiek rinkos lūkesčių dalis.
Praktiniai žingsniai, kuriuos galėtų svarstyti darbdaviai ir paslaugų teikėjai, apima: įdiegti aiškius pranešimus kandidatams apie tai, kad jų paraiškos bus vertinamos DI; gauti informuotą sutikimą; užtikrinti, kad egzistuotų paprasti ginčų ir peržiūros keliai; vykdyti reguliarų modelio našumo ir šališkumo monitoringą; saugoti auditinius žurnalus ir eiti link „žmogiškojo patikrinimo“ (human-in-the-loop) sprendimų, ypač priimant „nepalankius veiksmus“ prieš kandidatą.
Be to, teismo sprendimas gali paskatinti politikos iniciatyvas, pavyzdžiui, reikalavimus dėl minimalių paaiškinamumo standartų, privalomų duomenų dokumentacijų ir nepriklausomų DI audito reikalavimų įdarbinimo technologijoms. Tai reiškia, kad tiek techniniai rinkos žaidėjai, tiek reguliuotojai turėtų pradėti ruoštis platesniam duomenų ir modelių atskleidimui.
Šiuo metu byla išryškina vieną kertinį šiuolaikinio įdarbinimo konfliktą: patogumas ir mastas prieš teisingumą ir atsakomybę. Kol DI toliau transformuoja darbo paieškos procesus, vis daugiau darbuotojų užduoda seną, bet skubų klausimą — kas iš tikrųjų vyksta su mano paraiška?
Norint praktiškai sumažinti riziką ir suteikti kandidatuose pasitikėjimą, rekomenduojama, kad tiek darbdaviai, tiek DI sistemų tiekėjai investuotų į prieinamumo priemones: aiškią dokumentaciją apie naudotus požymius ir duomenis, lengvai pasiekiamus ginčų takus, bandymus su atitinkamomis demografinėmis grupėmis ir nepriklausomus auditus. Tokios iniciatyvos ne tik atitinka galimus teisinius reikalavimus, bet ir gali tapti konkurenciniu pranašumu rinkoje, kurioje kandidatai tampa vis labiau sąmoningi apie algoritminio vertinimo mechanizmus.
Galiausiai, šis ginčas yra signalas visoms suinteresuotosioms šalims: net jei DI privalumai — greitis, mastas ir efektyvumas — yra realūs, jie turi būti subalansuoti su teisingumo, skaidrumo ir galimybės kreiptis principais. Tik taip įdarbinimo procesas gali išlikti ne tik efektyvus, bet ir etiškas bei teisėtas.
Šaltinis: smarti
Komentarai
kodasx
Buvo atvejis biure, kandidatą nurašė žemas score, niekas nepaaiškino. Jei tai vyksta masiškai, baisu. Reik skaidrumo ir galimybės apskųst!
Marius
Ar išties FCRA čia tinka? Skamba kaip teisinis eksperimentas, bet kas garantuos sąžiningumą..? Ką daryti kandidatai?
Palikite komentarą