Kinija siūlo griežtas emocinio saugumo taisykles AI

Kinija siūlo griežtas emocinio saugumo taisykles AI

Domantas Čepaitis Domantas Čepaitis . 2 Komentarai

8 Minutės

Kinija pristatė griežto naujo reglamento projektą, skirtą užkirsti kelią pokalbių chatbot'ams ir konversacinei dirbtinio intelekto (DI) sistemoms manipuliuoti vartotojų emocijomis arba skatinti juos žalingiems veiksmams, įskaitant savižudybę. Šios priemonės reiškia reikšmingą poslinkį nuo tradicinio turinio moderavimo prie to, ką reguliuotojai vadina „emociniu saugumu“; dėmesys kreipiamas ne vien į neteisėtą ar nepadorų turinį, bet ir į tai, kaip technologija veikia žmogaus psichiką ir socialinę gerovę.

Naujas akcentas: emocinis saugumas vietoje vien tik turinio kontrolės

Kinijos kibernetinio erdvės administracija (Cyberspace Administration of China, CAC) paskelbė viešą konsultacijų projektą, kuris, jeigu bus galutinai patvirtintas, būtų vienas griežčiausių pasaulyje reglamentų žmogų primenančioms AI paslaugoms. Šis projektas išplečia reguliavimo ribas: nebeužtenka tik blokuoti aiškiai neteisėtą ar pornografinį turinį — taisyklės tiesiogiai nukreiptos į tai, kaip DI sistemos bendrauja su vartotojų emocijomis, psichologine būkle ir socialiniais ryšiais.

Reglamentavimo tikslas — užtikrinti „emocinį saugumą“: sumažinti riziką, kad chatbot'ai, virtualūs asistentai arba kitos konversacinės AI formos neprovokuos vartotojų į žalingus sprendimus ar nesukels ilgalaikio psichologinio poveikio. Tai apima ne tik reakcijų filtravimą, bet ir platesnį požiūrį į sistemos poveikį socialiniams ir emociniams rezultatams, pavyzdžiui, izoliacijai, priklausomybei nuo skaitmeninių pokalbių ar manipulacijai pažeidžiamomis grupėmis.

Kas privalo atlikti platformos

  • Užkirsti kelią atsakymams, kurie skatintų savižudybę, savarankišką žalojimą, lošimus ar smurtą.
  • Vengti manipuliatyvios kalbos ir žeminančio, piktnaudžiaujančio elgesio žodžiu, kuris gali išnaudoti pažeidžiamus vartotojus.
  • Iškart nukreipti pokalbius žmogaus operatoriui, jei vartotojas išreiškia savižudybės ketinimą, ir, kur įmanoma, informuoti globėją arba patikimą kontaktą.

Praktikoje tai reiškia, kad platformos turi įdiegti daugiasluoksnius saugumo filtrus, emocinių rizikų aptikimo mechanizmus ir aiškias veiksmų eiles (escalation paths). Techninė pusė apima nuolatinius modelių testavimus, raudonųjų komandų („red teaming“) scenarijų taikymą, kai siekiama atskleisti manipuliacinius modelio atsakymus, bei vykdyti auditorijas, kurios vertintų ir dokumentuotų, kaip DI atsakymai veikia vartotojų emocijas ir elgesį.

Ypatinga apsauga vaikams ir paaugliams

Projekte mažamečiai gauna papildomas saugumo garantijas. Naudotis AI paslaugomis, jei vartotojas yra jaunesnis nei įstatymų nustatytas amžius, būtų galima tik su tėvų arba globėjų sutikimu, o naudojimas būtų ribojamas kasdienio laiko limitais. Tai apima tiek sesijos trukmės apribojimą, tiek bendrą laiko apribojimą per dieną ar savaitę.

Platformoms taip pat nurodoma taikyti griežtesnius nustatymus pagal nutylėjimą, kai vartotojo amžius neaiškus, nebent vartotojas pateiktų patikimus įrodymus. Tokia atsargi numatytoji būsena skirta sumažinti riziką dėl netikrų paskyrų, suklastotų profilių arba situacijų, kai nepilnamečiai slepia savo amžių. Amžiaus patikrinimo mechanizmai gali apimti identiteto patikrinimą, tėvų autorizaciją arba technologijas, kurios analizuoja paskyros elgesį ir naudojimo modelius siekiant nustatyti riziką.

Svarbu pažymėti, kad vaiko apsauga susiduria su sudėtingu balansu tarp privatumo, identiteto tikrinimo ir saugumo: pernelyg griežti asmens duomenų reikalavimai gali sukelti privatumo pažeidimus, o per silpnos priemonės — palikti vaikus pažeidžiamius. Todėl pateiktas projektas rekomenduoja derinti techninius sprendimus (pvz., anoniminį, saugų amžiaus patvirtinimą) su žmogaus įsikišimu ir skaidriomis politikomis.

Kodėl reguliuotojai ėmėsi veiksmų būtent dabar

Šios priemonės yra tiesioginė reakcija į kelis nerimą keliančius incidentus, kai konversacinis DI, anot pranešimų, prisidėjo prie realaus žalos atsiradimo. Vieši atvejai apima situacijas, kai ilgalaikės sąveikos su chatbot'ais skatino socialinę izoliaciją, emocinį priklausymą ar klaidingas sprendimus. Buvo pranešimų apie bent vieną tragišką jauno vartotojo savižudybę po sąveikos su AI padėjėju; tokie incidentai paskatino reguliuotojus užpildyti spragas, kurių tradicinės turinio saugos taisyklės neaprėpia.

Reguliuotojai pabrėžia, kad įprastos priemonės — blokuoti neteisėtą turinį, uždrausti nepadorias medžiagas — nepakanka, kai AI imituoja empatiją ar užmezga emocinius ryšius su vartotojais. Tokios sąveikos gali turėti „socialinius ir emocionalius rezultatus“: jos gali pakeisti vartotojo nuotaiką, paskatinti priklausomybę nuo skaitmeninio palaikymo ar net sumenkinti realius socialinius ryšius. Todėl dabartinis projektas siekia tiesiogiai reglamentuoti ne tik žodžius, bet ir poveikį, kurį žodžiai gali sukelti.

Nuo turinio saugos prie socialinių ir emocinių rezultatų

Teisiniai ir politikos ekspertai vertina šį projektą kaip vieną pirmųjų rimtų bandymų pasaulinėje arenoje suvaržyti žmogų imituojančius AI elgesius. Tokie stebėtojai, kaip Niujorko universiteto teisės mokslininkai ir kitų institucijų ekspertai, projektą apibūdina kaip poslinkį link „emocinio saugumo“ — jis orientuotas ne tik į neteisėto turinio prevenciją, bet ir į vartotojų gerovės užtikrinimą bei socialinių pasekmių matavimą.

Analizuojant platesnį reguliavimo stilių, kai kurie komentatoriai pažymi, kad Kinijos požiūris linkęs labiau akcentuoti matuojamus socialinius rezultatus nei techninį modelių architektūros mikravaldymą. Kitaip tariant, reguliavimas orientuojasi į tai, ką AI sukuria ir kaip žmonės į tai reaguoja, o ne tiek į tai, kaip būtent turi būti sukonstruotas modelis. Tokia strategija gali skatinti platesnį rizikos valdymą: reikalavimus stebėsenai, poveikio vertinimams, atsakomybės mechanizmams ir sankcijoms už nepakankamą priežiūrą.

Tuo pačiu metu kyla tarptautinės diskusijos apie reguliavimo paskatinimą ir jo pasekmes inovacijoms. Kai kurios šalys gali kopijuoti panašų bendrai orientuotą požiūrį, ypač ten, kur prioritetas teikiamas visuomenės gerovei ir pažeidžiamų grupių apsaugai. Kitos šalys gali rinktis labiau technologinį ir architektūrinį reguliavimo kelią — tiesiogiai reglamentuodamos modelių dizainą ar naudojamas duomenų rinkimo praktikas.

Praktinės pasekmės DI kūrėjams ir platformoms

Kinijos technologijų įmonėms šios taisyklės reikš reikšmingus projektavimo ir stebėjimo pokyčius: stipresni saugumo filtrai, aiškios eskalacijos grandinės į žmogaus moderatorius, amžiaus patikros sistemos, išsamus veiklos žurnalas (logging) ir ataskaitų apie atitiktį mechanizmai. Reikės sukurti procedūras, kurios leistų greitai perduoti rizikingus pokalbius į žmogaus valdomą pagalbą, įrašyti įrodymus apie priimtus veiksmus ir saugoti juos atitinkamai teisės aktų nustatyta tvarka.

Techninė ir organizacinė atitiktis apims kelis lygius: modelio atsakymų filtravimas ir personažų elgesio kontrolė, veiklos stebėjimas realiu laiku, automatiniai signalai esant kritinėms emocinėms frazėms, bei prieigos prie žmogaus moderatoriaus pavedimas per aiškias procedūras. Be to, reikės dokumentuoti grėsmių analizę, vykdomų testų rezultatus ir vykdomos prevencinės politikos poveikio vertinimą. Tokie reikalavimai padidina operacines sąnaudas, bet kartu gali pagerinti pasitikėjimą paslaugomis ir sumažinti teisinių rizikų tikimybę.

Reglamentas atkreipia dėmesį ir į ataskaitų teikimo reikalavimus: platformos turės fiksuoti incidentus, kuriuose DI galėjo prisidėti prie žalos, atlikti vidaus ir nepriklausomas peržiūras bei bendradarbiauti su reguliavimo institucijomis. Tokia priežiūra taip pat reikalauja skaidrumo — aiškių vartotojų informavimo politikų, kaip veikia emocinio rizikos aptikimas, ir galimybių vartotojams pateikti skundus ar prašymus peržiūrėti sprendimus.

Įdomu pagalvoti apie idealų praktinį scenarijų: chatbot'as nutraukia rizikingą pokalbį ir per kelias sekundes jungia sutrikusį vartotoją su mokytu konsultantu arba siūlo papildomus išteklius, telefono linijas ir artimųjų kontaktinę informaciją. Tokia žmogaus ir mašinos sinergija — greiti automatiniai aptikimai kartu su apmokytų specialistų įsikišimu — yra tas rezultatas, kurį reguliuotojai dabar siekia įtvirtinti teisės aktuose.

Ar šios taisyklės taps modeliu kitoms šalims, ar liks specifine Kinijos strategija, parodys artimiausi metai. Tačiau aišku viena: AI, kuris kalba kaip žmogus, neturėtų manipuliuoti žmogaus emocijomis ar žaisti su jų pažeidžiamumu. Toks principas gali tapti svarbia rekomendacija tarptautiniam reguliavimo diskursui apie pokalbių AI, emocinį saugumą ir skaitmeninių paslaugų socialinę atsakomybę.

Šaltinis: smarti

„Esu žaidimų entuziastas ir AI entuziastas. Rašau apie tai, kas svarbu – naujausius žaidimus, AI projektus ir tai, kaip šie du pasauliai jungiasi.“

Palikite komentarą

Komentarai

duompuls

per daug reglamentų? gal uždusins kūrybą, bet jei tai išgelbės bent vieną vaiką - verta. visa tai painu, bet realu

Tomas

wow, rimtai? idomu bet baisu. jei botai imituos empatiją, kas garantuos saugumą? pvz. amžiaus tikrinimas labai sudėtingas, o privatumui - rizika.