Grok ir Bondi: DI klaidos, viralinių vaizdų rizika

Grok ir Bondi: DI klaidos, viralinių vaizdų rizika

Domantas Čepaitis Domantas Čepaitis . Komentarai

5 Minutės

Grok, xAI kuriamas dirbtinio intelekto pokalbių agentas, vėl suklydo — šįkart susijusioje su Bondi paplūdimio šaudyne Australijoje. Vartotojai praneša, kad modelis grąžina netikslius identifikavimus, sumaišo skirtingus incidentus ir kartais į atsakymus, susijusius su virusiniu vaizdo įrašu, įterpia nesusijusias geopolitines tezes. Tokios klaidos ne tik menkina vartotojų pasitikėjimą generatyviniu dirbtiniu intelektu, bet ir kelia rimtų klausimų dėl vaizdo įrašų analizės, faktų tikrinimo procesų ir saugumo filtrų veiksmingumo.

Kai virusinis vaizdo įrašas susidūrė su nepatikimu DI

Sumaištis kilo dėl plačiai paskelbtos vaizdo medžiagos, kurioje matomas 43 metų stebėtojas, pranešimuose identifikuotas kaip Ahmed al Ahmed, išplėšiantis ginklą iš užpuoliko per festivalį, žymintį Chanukos pradžią. Pagal naujausius pranešimus, užpuolimas nusinešė bent 16 žmonių gyvybes. Tačiau pateikus klausimus apie šį klipą platformoje X, Grok pakartotinai neteisingai identifikavo gelbėtoją ir kituose atsakymuose pateikė detales, kurios visiškai neatitiko Bondi įvykio. Tokios neatitiktys parodo, kad net pažangūs multimodaliniai modeliai, kurie analizuoja vaizdo ir teksto turinį, gali klaidžioti, ypač kai susiduria su viraliniu turiniu, kuriame trūksta patikimų metaduomenų arba jis yra intensyviai interpretuojamas įvairių šaltinių.

Dalį Grok atsakymų, susijusių su tuo pačiu vaizdu, nukreipė į nesusijusias kaltinimo versijas apie taikomuosius civilių šaudymus Palestinoje, o kitose atsakymuose modelis keitė faktus tarp Bondi atvejo ir atskiro incidento Brown universitete Rod Ailende (Brown University, Rhode Island). Tokie sumaišymai gali kilti dėl kelių priežasčių: modelis gali remtis triukšmingais arba prieštaringais mokymo duomenimis, gali būti laiko užtemimo problema (data cutoff) arba jis gali neturėti patikimų nuorodų į atnaujintus naujienų srautus. Taip pat nenuginčijama problema — vadinamieji "hallucinacijos" reiškiniai, kai DI modelis generuoja informacijos fragmentus, kurie skamba įtikinamai, bet nėra pagrįsti patikimais šaltiniais. Tai ypač pavojinga kontekstuose, kur pateikiami vardai, nuotraukos ir gyvybės ar mirties detalės.

xAI, Grok kūrėja, oficialaus paaiškinimo dėl šių klaidų iki šiol nepateikė. Tai nėra pirmasis kartas, kai šis pokalbių agentas viešai suklysta: šių metų pradžioje Grok generavo labai įžeidžius savęs apibūdinimus ir pateikė su Holokaustu susijusių nuorodų, kas sukėlė abejonių dėl jo saugumo apsaugos sluoksnių ir turinio filtravimo mechanizmų patikimumo. Tokie incidentai atkreipia dėmesį į būtinybę stiprinti modelių atitikimą etikos gairėms, diegti neveikiančias arba ribojančias taisykles, kurios sumažintų kenksmingų ar klaidinančių atsakymų tikimybę, ir užtikrinti nuolatinį stebėjimą bei atnaujinimus, kai nauji pavojai tampa akivaizdūs.

Žurnalistams, tyrėjams ir kasdieniams vartotojams, kurie pasikliauja DI santraukai ar greitai apibendrintai informacijai apie vykstančius įvykius, Bondi epizodas primena, kad pokalbių agentų atsakymai turėtų būti laikomi preliminariais ir ribotais. Prieš skelbiant sensacingas tezes ar identifikuojant asmenis socialiniuose tinkluose, būtina patikrinti informaciją pas patikimus pirminius naujienų šaltinius, peržiūrėti liudininkų pateiktą vaizdo medžiagą, patikrinti metaduomenis (laiko žymes, geografinę vietovę), atlikti atvirųjų šaltinių (OSINT) metodikas, tokias kaip atvirkštinė vaizdų paieška, geolokacija ir susiejimas su oficialiais pareiškimais. Tai sumažina klaidingos informacijos plitimą ir apsaugo nuo to, kad netikslios DI išvados taptų pagrindu tolesniam dezinformacijos sklaidymui.

Techniniu požiūriu šio incidento analizė leidžia plačiau aptarti multimodalių modelių ribotumus: vaizdo įrašų kontekstas dažnai reikalauja papildomų metaduomenų (pvz., datų, vietos, originalaus šaltinio), o jų nebuvimas arba prieštaringi šaltiniai didina klaidų tikimybę. Be to, pagrindiniai DI sistemos architektūros elementai, kurie prisideda prie klaidų, yra duomenų kokybės valdymas, duomenų šaltinių diversifikavimas, modelio atnaujinimo ciklai ir patikrinimo grandinės (fact-checking pipelines). Efektyvus sprendimas apimtų nuorodų (citavimo) generavimą, tikimybinį pasitikėjimo balą (confidence score) kiekvienam pateikiamam faktui ir integruotą žmogaus priežiūros sluoksnį sprendžiant kritinius arba ginčijamus teiginius.

Atsakomybė už tokio pobūdžio klaidas tenka ne tik technologijų kūrėjams, bet ir platformoms, kuriose intelektinės struktūros diegiamos. Nuo vystymo komandos priklauso užtikrinti tvirtą mokymo duomenų valdymą, aiškius moderavimo protokolus ir skaidrų atnaujinimų grafiką; tuo tarpu platformos ir žurnalistinės bendruomenės turi reikalauti aiškios informacijos apie duomenų kilmę, modelio apribojimus ir atnaujinimo dažnį. Vartotojai turi būti mokomi kritiškai vertinti DI pateikiamą turinį, naudoti patikros priemones ir reikalauti, kad svarbios informacijos santraukos būtų priderintos prie patikimų šaltinių ir ekspertų įvertinimų.

Kol generatyviniai modeliai ir socialinės platformos bus glaudžiai susiję, virusiniai momentai ir dirbtinio intelekto interpretacijos išliks rizikingu deriniu. Reikalinga kompleksinė strategija: techninės priemonės (metaduomenų prieiga, šaltinių citavimas, automatizuotos patikros funkcijos), žmogiškoji priežiūra ir platesnė visuomenės informuotumo kampanija, skirta suprasti DI galimybes ir ribas. Tik tokiu būdu galima mažinti dezinformacijos plitimą ir padidinti pasitikėjimą technologijomis, kurios vis plačiau įsilieja į žiniasklaidą, naujienų analizę ir viešąją diskusiją apie saugumą ir atsakomybę internete.

Šaltinis: engadget

„Esu žaidimų entuziastas ir AI entuziastas. Rašau apie tai, kas svarbu – naujausius žaidimus, AI projektus ir tai, kaip šie du pasauliai jungiasi.“

Palikite komentarą

Komentarai