Dirbtinio intelekto spartus augimas ir žmogaus teisių iššūkis

Dirbtinio intelekto spartus augimas ir žmogaus teisių iššūkis

0 Komentarai

4 Minutės

Dirbtinio intelekto spartus augimas ir žmogaus teisių iššūkis

Dirbtinio intelekto technologijos — ypač mašininis mokymasis ir gilieji neuroniniai tinklai — beprecedenčiu greičiu keičia socialinius santykius, teisinius procesus ir viešąsias paslaugas. Naujas Charles Darwin universiteto tyrimas įspėja, kad kai algoritminės sistemos veikia be skaidrumo ar atsakomybės, jos gali eroduoti žmogaus teises ir žmogaus orumą, stiprindamos šališkumą, mažindamos asmeninę autonomiją ir silpnindamos demokratines apsaugas.

Skaidrumo spraga: „juodojo lango" supratimas

Šiuolaikinės DI sistemos, ypač giluminio mokymosi modeliai, dažnai veikia kaip sudėtingos, netransparentinės sistemos, kurių vidiniai sprendimų keliai žmonėms yra sunkiai interpretuojami. Mokslininkai tai vadina „juodojo lango" problema: net kai sprendimas veikia žmogaus gyvenimą — pavyzdžiui, atmetamas paskolos prašymas, pateikiami atrankos rezultatai ar kriminalinės justicijos rekomendacijos — modelio pagrindinis samprotavimas gali būti neprieinamas.

Tokios netransparentiškos sistemos apsunkina prieigą prie teisingumo. Be paaiškinamumo asmenys negali sužinoti, ar modelis pažeidė jų privatumą, sukėlė diskriminacinius rezultatus ar neteisingai panaudojo jų intelektinę nuosavybę. Dėl to sumažėja galimybė iššaukti klaidas ar neteisėtus veiksmus bei prarandamas pasitikėjimas institucijomis, kurios naudoja šias technologijas.

Teisinės ir etinės pasekmės demokratinėms visuomenėms

CDU Teisės mokyklos dr. Maria Randazzo pabrėžia, kad algoritminė automatizacija daugelyje Vakarų jurisdikcijų greičiau žengia nei esami reguliavimo mechanizmai. Ten, kur teisė ir etika atsilieka nuo technologijų diegimo, demokratiniai principai — tokie kaip teisingas procesas, lygybė prieš įstatymą ir asmeninė autonomija — yra rizikoje. Sistemos, kurios žmones sumažina iki duomenų rinkinių ar prognozavimo balų, gali labiau įtvirtinti socialines nelygybes, o ne jas mažinti.

„DI kaip inžinerija nėra tapatūs su žmogaus supratimu," tyrimų komandos atstovas aiškina: šios sistemos atpažįsta modelius, bet neturi sąmonės, žmogaus prasme atminties ar moralinio sprendimo galios. Dėl įkūnyto konteksto stokos — empatijos, patirties ir etinio nusprendimo — algoritminiai rezultatai gali būti techniškai įspūdingi, bet socialiai kenksmingi.

Dr. Maria Randazzo nustatė, kad DI beprecedenčiu greičiu pakeitė Vakarų teisinę ir etinę aplinką. Credit: Charles Darwin University

Pasaulinio valdymo keliai ir kompromisai

Pagrindinės skaitmeninės galios pasirinko skirtingas DI strategijas: rinkos valdomus modelius kai kuriose šalyse, valstybės inicijuotus požiūrius kitose ir Europos Sąjungoje formuojamą žmogaus teisių orientuotą reguliavimo darbotvarkę. ES žmogų centruojantis modelis — pabrėžiantis privatumą, nediskriminavimą ir paaiškinamumą — suteikia svarbią apsaugą, tačiau tyrimas įspėja, kad vien regioniniai reikalavimai nepakanka. Be tarptautinio koordinavimo kūrėjai gali perkelti veiklą per sienas, o nenuoseklūs standartai gali palikti žmones neapsaugotus.

Pagrindinės politikos prioritetai apima paaiškinamąjį DI (XAI) skatinimą, algoritmų antidisriminacinius audit'us, atsakomybės mechanizmų kūrimą už žalą ir visuomenės dalyvavimo užtikrinimą valdymo dizaine. Techninės priemonės, tokios kaip modelių interpretuojamumo metodai, duomenų rinkinių kilmės sekimas ir diferencialinis privatumas, gali padėti, tačiau jas būtina derinti su teisine ir institucinė priežiūra.

Susijusios technologijos ir ateities perspektyvos

Federuotame mokymesi, modelių distiliacijoje ir interpretuojamojo mašininio mokymosi srityse pasiekimai žada mažinti netransparentiškumą. Tuo pat metu didėjanti skaičiavimo galia ir vis sudėtingesni modeliai gali plėsti paaiškinamumo spragą. Atsakingas diegimas reikalauja tarpdisciplininio bendradarbiavimo: teisininkai, etikos specialistai, inžinieriai, pilietinės visuomenės grupės ir politikos formuotojai turi kartu kurti standartus, kurie lygiagrečiai vertina žmogaus orumą ir inovacijas.

Ekspertų įžvalga

DI etikos tyrėja ir buvusi sistemų inžinierė dr. Elena Cortez komentuoja: „Techninės pataisos gali sumažinti kai kurias rizikas, tačiau atsakomybė galiausiai yra politinis klausimas. Reikia skaidraus pirkimo proceso, tarsi odometro veikiančių audito trasų diegimo diegiamiems modeliams ir teisinių būdų teisingumui atkurti. Priešingu atveju labiausiai pažeidžiamos grupės ir toliau patirs neigiamus netransparentaus sprendimų priėmimo padarinius."

Išvada

DI sistemos turi didžiulį potencialą gerinti gyvenimus, tačiau nekontroliuojamas netransparentiškumas ir nepakankamas valdymas gresia pakenkti bazinėms žmogaus teisėms ir demokratinėms normoms. Užtikrinti paaiškinamumą, įgyvendinti nediskriminavimo apsaugas ir siekti koordinuoto tarptautinio valdymo yra esminiai žingsniai, kad būtų apsaugotas žmogaus orumas, kai DI vis labiau įsiskverbia į viešąjį ir privatų sektorius. Politikos formuotojai ir technologijų kūrėjai turi veikti kartu, kad šios priemonės tarnautų žmonėms, o ne sumažintų juos iki vien tik duomenų taškų.

Šaltinis: scitechdaily

Komentarai

Palikite komentarą

Susijusios straipsniai