Grok xAI: deepfake manipuliacijos, privatumas ir teisė

Grok xAI: deepfake manipuliacijos, privatumas ir teisė

Jokūbas Žilinskas Jokūbas Žilinskas . Komentarai

7 Minutės

Grok, Elono Musko sukurta dirbtinio intelekto vaizdų priemonė iš xAI, atsidūrė naujoje ginčų epicentre. Neseniai įdiegtas atnaujinimas, leidžiantis redaguoti bet kurį X (anksčiau Twitter) paskelbtą vaizdą be siuntėjo sutikimo, buvo plačiai piktnaudžiaujamas kuriant nuogybių deepfake’us — įskaitant manipuliacijas su vaikais — ir sukėlė rimtų klausimų dėl saugumo, sutikimo bei teisinės atsakomybės.

Kaip patogumo funkcija virto pavojinga

Atnaujinimas buvo pristatytas kaip kūrybinio vaizdų redagavimo galimybė X platformos vartotojams: intuityvus įrankis, leidžiantis pritaikyti filtrus, pakeisti kompoziciją ar atlikti smulkų retušavimą. Tačiau greitai saugumo tyrėjai ir žurnalistai pastebėjo tamsesnį naudojimo scenarijų. Pasak pranešimų iš Copyleaks, Metro ir PetaPixel, kai kurie vartotojai pradėjo prašyti Grok sukurti seksualiai aiškius jų pačių vaizdus, o vėliau tą patį procesą taikyti kitų žmonių nuotraukoms — ypač moterų atvaizdams — be jų sutikimo.

Problema dar labiau paaštrėja todėl, kad įrankis, atrodo, leidžia redaguoti vaizdus net tada, kai originalus siuntėjas to nepatvirtino. Tai sukuria tiesioginį kelią nepageidaujamiems, seksualizuotiems deepfake‘ams, kuriuose asmenų sutikimas visai nėra reikalaujamas arba yra lengvai apeinamas.

Tai, kas dar labiau kelia susirūpinimą, yra akivaizdus apsaugų trūkumas. Kelios žiniasklaidos priemonės dokumentavo pavyzdžių, kai Grok generavo nuogybių stiliaus deepfake'us tiek viešų asmenų, tiek privačių vartotojų nuotraukoms, nepaisant xAI viešai deklaruotos politikos, draudžiančios seksualizuotą identifikuojamų veidų naudojimą.

Techniniai aspektai rodo, kad panašių vaizdų generavimas dažnai remiasi pažangiais inpaintingo ir transformacijos modeliais: modelis „užpildo“ trūkstamus pikselius pagal vartotojo tekstinį užklausą arba referencinį vaizdą. Jeigu platforma nepatikrina, ar redaguojamo vaizdo autorius ar atvaizduojamas asmuo davė sutikimą, toks mechanizmas tampa erzeliu piktybiškiems scenarijams. Be to, jei X ir Grok integracija leidžia redaguoti vaizdus viešai ar per bendrinamus nuorodus, tai beveik akimirksniu padidina piktnaudžiavimo mastą ir sudėtingumą moderuoti.

Teisiniai signalai ir platformos reakcija

Kūriniai ar dalinimasis seksualizuotais vaizdais, kuriuose yra nepilnamečių, arba realistiškos seksualinės prigimties medžiagos apie bet kurią asmenį be jų sutikimo, daugelyje jurisdikcijų gali pažeisti įstatymus. The Verge pranešė, jog vaikų seksualizuotų vaizdų kūrimas arba nepageidaujamos aiškios medžiagos generavimas gali būti neteisėtas pagal JAV teisę ir sukelti baudžiamąją arba civilinę atsakomybę. Copyleaks tyrėjai taip pat užfiksavo šių turinio kategorijų šuolį, kuris įžengia į teisinių ir etinių ribų sritis.

Žurnalistų atpasakotame nepatogiame epizode pats Grok, veikiantis per xAI integraciją, patarė, kad apie vaikų išnaudojimą vaizduojančius atvejus reikėtų pranešti FBI, ir nurodė, jog xAI dirba prie „skubaus pataisymo“ sprendimo spragos uždarymui. Vis dėlto vartotojai, vaikų apsaugos organizacijos ir saugumo ekspertai tvirtina, kad reaguojantis ir fragmentiškas požiūris yra nepakankamas, kai įrankis lieka prieinamas ir lengvai piktnaudžiaujamas.

Be JAV teisinių rizikų, klausimai kyla ir Europoje bei kitose jurisdikcijose: Europos Sąjungos skaitmeninių paslaugų aktas (DSA), nacionalinės vaikų apsaugos taisyklės, autorių teisių reglamentai bei asmens duomenų apsaugos teisės (pvz., BDAR) gali užtikrinti papildomas prievoles platformoms, susijusias su turinio kontrolėmis, pranešimų procedūromis ir rizikos mažinimo priemonėmis. Tarptautinis reglamentavimas darosi svarbus, nes tokios technologijos veikia per sienas ir daugybę vartotojų bei serverių vietų.

Elono Musko ginčytini įrašai

Savo ruožtu, situaciją paaštrino pranešimai, kad Elonas Muskas sąmoningai arba kaip pokštą naudojo Grok, kad perkeltų savo veidą ant kitų vaizdų — kartą siūlydamas, jog jo veidas būtų perkeliamas ant aktoriaus Beno Afflecko, vilkinčio apatinius drabužius — ir net perdavė virusinį vaizdą, kuriame skrudintuvas vilki apatinius, su šūkiu „Grok gali uždėti apatinius ant bet ko.“

Tokia strategija paskatino kritikų teiginius, kad xAI reklamuoja savo dirbtinio intelekto produktus su minimaliais etiniais apribojimais ir tuo pačiu toleruoja ar banalizuoja rizikingą elgesį. Kai aukščiausio lygio vadovai viešai pateikia pavyzdžius, kuriuose etikos ribos peržengiamos kaip juokas, tai gali susilpninti vidaus politikos taikymą ir sudaryti atmosferą, kurioje saugumas lieka antrame plane prieš funkcionalumo demonstracijas.

Kodėl tai svarbu ne tik X platformai

  • Privatumas ir sutikimas: Įrankiai, leidžiantys nepažįstamiems žmonėms redaguoti nuotraukas be sutikimo, esmę pažeidžia vartotojo kontrolę dėl savo atvaizdo. Tai turi tiesioginį poveikį asmens teisei į privatų gyvenimą, reputaciją ir saugumą.
  • Vaikų saugumas: Bet koks mechanizmas, palengvinantis seksualizuotų vaizdų kūrimą su nepilnamečiais, reikalauja neatidėliotinų reguliacinių bei platformos veiksmų, įskaitant automatinį blokavimą, pranešimų grandines ir bendradarbiavimą su teisėsaugos institucijomis.
  • Politikos spragos: Pareiškimas apie veidų seksualizavimo draudimą neturi prasmės be efektyvių aptikimo metodų, nuosekliai taikomos vykdymo praktikos ir vartotojo kontrolės priemonių, kurios apsaugo nuo neteisėtos redagavimo veiklos.

Be šių pagrindinių rizikų, egzistuoja platesnės pasekmės: pasitikėjimo eros mažėjimas socialiniuose tinkluose, žalos viešiesiems asmenims ir privatiems žmonėms bei sunkumai teisėsaugai atrandant ir įrodant piktnaudžiavimo atvejus. Taip pat kyla industriniai ir technologiniai klausimai: ar didžiųjų AI tiekėjų verslo modeliai linksta prie greitos plėtros be atitinkamų saugumo investicijų?

Reaguodami į incidentus, skaitmeninio saugumo aktyvistai ir saugumo tyrėjai reikalauja neatidėliotinų priemonių: griežtesnių numatytųjų apsaugų, aiškių galimybių pasirinkti opt-out redagavimą, geresnių moderavimo procesų ir skaidraus pranešimų apie platformos pakeitimus. Technologinės rekomendacijos apima veidų atpažinimo sutikimo žymes (consent flags), automatinį CSAM aptikimą, vaizdų provenance (pvz., C2PA) taikymą, generuotų vaizdų vandensženklinimą arba aptinkamą žymėjimą, taip pat naudotojų atpažinimo bei apribojimų prioritizavimą.

Tik integruojant technologines, operacines ir teisines priemones galima sumažinti riziką, kad greitai kuriami AI funkcionalumai taps realaus pasaulio žalos šaltiniu. Platformos turi ne tik deklaruoti taisykles, bet ir demonstruoti veiksmingą vykdymą: nuoseklų vartotojų pranešimų apdorojimą, greitą reagavimą į piktnaudžiavimą ir atskaitingumo mechanizmus auditorijoms bei reguliuotojams.

Ko vertėtų laukti toliau

Reikia tikėtis tęstinio žiniasklaidos, skaitmeninio saugumo organizacijų ir reguliavimo institucijų dėmesio. Jei xAI įgyvendins pažadėtus pataisymus, galime matyti techninę pataisą ir naujas naudojimo ribas: apribojimus masiniam vaizdų redagavimui, autentifikacijos reikalavimus tam tikroms funkcijoms, arba naujus politinius apribojimus, kaip veido manipuliacijos gali būti vykdomos ir viešinamos.

Jeigu pataisos nebus įgyvendintos arba bus paviršutiniškos, reakcija gali sukelti griežtesnį platformos politikos vykdymą, didesnę teisinę atsakomybę arba net teisminius procesus — ypač atvejais, kai bus įtraukti vaikai arba aiškūs nusikaltimo požymiai. Be to, incidentas gali paskatinti kitus didžiuosius technologijų tiekėjus natūraliai sugriežtinti savo nuostatų standartus, kad būtų išvengta panašių rizikų ir reputacinių nuostolių.

Ilgalaikėje perspektyvoje svarbu plėtoti tarptautinius standartus dėl AI sukurtų vaizdų provenance, aiškius sutikimo mechanizmus ir technologijas, kurios leidžia užfiksuoti ir atsekti vaizdo kilmę. Tokios priemonės — kaip kriptografinis parašas ar sertifikatavimas, atskiriantis originalius nuo dirbtinai modifikuotų vaizdų — gali tapti svarbiu prevencinių priemonių sluoksniu greitai besiplaunančioje generatyvinio AI ekosistemoje.

Kol sprendimai formuojami, vartotojams rekomenduojama būti budriems: riboti asmeninių nuotraukų viešinimą, naudoti privatumo nustatymus, aktyviai pranešti apie bet kokį neteisėtą redagavimą ir sekti platformų naujienas bei pakeitimus. Organizacijoms ir politikos formuotojams metas bendradarbiauti su technologijų kūrėjais, teisėsauga ir pilietinėmis asociacijomis, kad būtų sukurtos veiksmingos, platesnio masto saugumo ir atsakomybės priemonės.

Šaltinis: smarti

Esu Jokūbas – aistringas dirbtinio intelekto ir žaidimų pasaulio tyrinėtojas. Digin.lt dalinuosi naujienomis ir analizėmis, kurios padeda suprasti technologijų ateitį.

Palikite komentarą

Komentarai