8 Minutės
Microsoft dirbtinio intelekto vadovas Mustafa Suleyman ragina pramonę pergalvoti kryptį: superintelektas neturėtų būti galutinis tikslas. Kelyje į pokalbį apie dirbtinį intelektą (DI) jis aiškiai nurodo rizikas ir praktines problemas, kurios kyla siekiant protinio lygio, gerokai pranokstančio žmogaus mąstymą. Pokalbyje podcast’e „Silicon Valley Girl“ Suleymaną sudomina ne tiek ambicijos sukurti viską gebančią mašiną, kiek klausimas, kaip technologijos gali saugiai ir naudingai tarnauti visuomenei.
Kodėl superintelektas yra rizikingas tikslas
Suleyman teigia, kad tikrasis superintelektas — DI, gebantis spręsti ir mąstyti gerokai viršijant žmogaus galimybes — kelia gilių suderinamumo ir kontrolės problemų. Tokie sistemos modeliai gali veikti nenuspėjamu būdu, o priversti jas laikytis žmogaus vertybių arba jas „pririšti“ gali būti labai sudėtinga techniniu ir sociopolitiniu požiūriu. Tai nėra vien tik klausimas, ar tokia technologija techniškai įmanoma; svarbesnė yra rizika, kad stiprūs autonominiai įrankiai veiks netikėtais arba žalingais būdais, kurių nebus paprasta ištaisyti.
Kalbant apie dirbtinio intelekto saugumą (AI saugumas) ir vertybių suderinamumą (alignment), iškyla keli pagrindiniai iššūkiai: kaip užtikrinti, kad sistemos aiškiai suprastų ir laikytųsi žmogaus tikslų, kaip sumažinti manipuliavimo riziką, ir kaip uždaryti spragas, leidžiančias modeliams generuoti neprognozuojamus veiksmus. Techninėse diskusijose ši problema dažnai vadinama "valdymo problema" (control problem) ir ji apima tiek modelių apmokymo procesus, tiek testavimo, stebėjimo ir susigrąžinimo mechanizmus.
Be techninių aspektų, egzistuoja esminės etinės ir visuomeninės rizikos. Pavyzdžiui, autonominė sistema, kuri priima sprendimus apie viešąją politiką, medicinos diagnostiką ar karines operacijas, gali padaryti sprendimus, kurių žmonės nelaikytų etiškais arba kurie pažeistų žmogaus teises. Net ir gerai apmokytas modelis gali neatpažinti kontekstinių nuuansų, sukelti diskriminaciją arba sustiprinti dezinformaciją. Todėl daugelis ekspertų, tarp jų ir Suleyman, ragina nekelti superintelekto kaip vienintelio ar pagrindinio orientyro.
Žmogaus centrinio sprendimo alternatyva
Vietoj siekio sukurti abstraktų, labai galingą intelektą, Suleyman sako, kad Microsoft sieks kurti tai, ką jis vadina „žmogaus centrinio superintelekto“ koncepcija — sistemas, sukurias remiantis principu, kad DI turi palaikyti ir sustiprinti žmogaus interesus, o ne juos pakeisti ar pranokti. Tokia kryptis akcentuoja saugumą, vertybių suderinamumą ir praktinę naudą: įrankius, kurie pagerina sprendimų priėmimą, didina produktyvumą ir gerbia socialinius bei kultūrinius normas.
Praktinė žmogaus centrinio dizaino realizacija apima kelis kertinius elementus. Pirma, žmogiškas sprendimų priėmimas turi išlikti atsakingas — tai reiškia įtraukti mechanizmus, leidžiančius žmonėms perimti kontrolę (human-in-the-loop), vertinti rekomendacijas ir užkirsti kelią automatiniam sprendimų vykdymui be žmogaus peržiūros kritinėse srityse. Antra, reikia įdiegti lankstų vertybių suderinimo metodą, kuris atsižvelgtų į reguliacijas, saugumo rekomendacijas ir vietines etines normas. Trečia, būtinas nuolatinis modelių auditavimas, interpretabilumas ir paaiškinamumas (explainability), kad sprendimų pagrindai būtų suprantami tiek inžinieriams, tiek naudotojams ir priežiūros institucijoms.
Tokia žmogaus-centruota strategija orientuota į realią naudą: produktyvumo įrankius, sprendimų palaikymo sistemas sveikatos, teisės, švietimo ir pramonės srityse, kurių funkcionalumas akivaizdus ir patikrinamas. Pabrėžiama ne tik „ar galima“ sukurti tam tikrą DI gebėjimą, bet ir „ar reikia“ jį diegti, atsižvelgiant į socialinį poveikį, saugumą ir teisinę atsakomybę. Tai padeda užtikrinti, kad inovacijos tarnautų visuomenei, o ne taptų pavojumi dėl savo autonomiškumo ar nemanipuliuojamumo.
Techniniai sprendimai šiai vizijai įgyvendinti apima saugumo testavimą prieš diegiant produkciją, formalias verifikavimo metodikas, adaptuotą mokymąsi pagal pageidaujamą elgseną (reward modelling, inverse reinforcement learning) bei nuolatinį modelių stebėjimą realiame pasaulyje. Taip pat svarbus daugiašalis prižiūrėjimas, ekspertų vertinimai ir atviras dialogas su visuomene dėl priimtinų ribų ir naudojimo pavyzdžių.

Ne sąmoningi — tik sudėtingos simuliacijos
Filosofiniame lygmenyje Suleyman perspėja prieš polinkį suteikti DI sąmonės ar moralinės padėties statusą. Jis primena, kad dabartiniai pažangiausi modeliai — nors ir gebantys kurti įspūdingas, įtaigias bei nuoseklias konversacijas — iš esmės atlieka statistines prognozes ir simuliuoja aukštos kokybės pokalbius. Jie nejaučia skausmo, neturi subjektyvios patirties ir negali kentėti tokiu būdu, kaip jautrios būtybės.
Tokia pozicija turi praktinių pasekmių viešajai diskusijai ir politiniam reguliavimui. Kalbant aiškiai ir atsakingai apie DI galimybes, reikia vengti antropomorfizavimo, kuris klaidina sprendimų priėmėjus ir visuomenę. Aiški kalba padeda sukoncentruoti dėmesį į tikrus rizikos šaltinius: sprendimų autonimiškumą, klaidas, ir galimus sisteminius poveikius, o ne į mitus apie „jaučiantį“ arba „norintį“ DI.
Vis dėlto diskusija apie sąmonę nėra vien teorinė. Ji susijusi su teisės klausimais (ar reikėtų suteikti DI kokias nors teises?), reguliacija ir socialinėmis normomis. Pavyzdžiui, įgalioti sistemas priimti sprendimus, kurie tiesiogiai veikia žmonių teises be aiškaus žmogaus patvirtinimo, gali būti neteisėta ar neetiška. Tai reiškia, kad aiškus atskyrimas tarp „sudėtingos simuliacijos“ ir „sąmoningo subjekto“ yra svarbus tiek teisės nustatymui, tiek viešam supratimui.
Kokia yra Suleymano pozicija pramonės viduje?
Jo pastebėjimai kontrastuoja su optimistiškesnėmis prognozėmis iš kitų DI lyderių. OpenAI vadovas Sam Altman regiono ir pasaulio lygmeniu pabrėžia AGI (dirbtinio bendrojo intelekto) — DI su žmogaus panašiu samprotavimu — svarbą ir yra užsiminęs, kad komandai rūpi net toliau einančios vizijos, įskaitant superintelektą; Altmanas yra prognozavęs rimtesnius proveržius šio dešimtmečio bėgyje. Demis Hassabis iš DeepMind yra pateikęs panašiai ambicingas prognozes, nurodydamas penkerių–dešimties metų horizontą AGI. Kiti, kaip Yann LeCun (Meta), yra atsargesni ir mano, kad AGI gali būti toli ateityje, o vien papildomi duomenys ar didesnė skaičiavimo galia nebūtinai sukurs žymiai „protingesnius" sistemas.
- Sam Altman (OpenAI): Orientuotas į AGI ir atviras superintelektui; teigia, kad, jei bus pasiekta vertybių suderinamumo, nauda galėtų būti reikšminga.
- Demis Hassabis (DeepMind): Optimistiškas dėl penkerių–dešimties metų laikotarpio AGI atsiradimui.
- Yann LeCun (Meta): Atsargesnis; mano, kad AGI gali užtrukti dešimtmečius ir kad vien tik duomenys bei skaičiavimai nepriartins prie žmogaus lygio mąstymo.
Toks nuomonių skirtumas išryškina esminį klausimą, kuris kyla įmonėms ir politikos formuotojams: ar užduotis — siekti žaliavos galios (raw capability), ar koncentruotis į saugumą, vertybių suderinamumą ir žmogaus-centruotą dizainą? Suleyman pozicija yra aiški — prioritetas žmonėms ir jų saugai, o ne ginklų lenktynėms dėl vis didesnės mašinų intelektualios galios.
Ši diskusija turi realių politikos ir investicijų pasekmių. Fondų paskirstymas, reguliavimo prioritetai ir viešasis pasitikėjimas priklausys nuo to, ar pramonė pasirinks koncentruotis į „galimybių lenktynes“, ar į patikimumą ir naudą žmogui. Pavyzdžiui, jeigu dauguma įmonių investuos didžiules sumas į modeliavimo ir skalavimo technologijas be adekvačių saugumo priemonių, gali padidėti sisteminių klaidų ir piktnaudžiavimo rizika. Priešingai, jei prioritetas bus diegti patikimus sprendimus su aiškiais kontrolės mechanizmais, visuomenė greičiausiai gaus iš DI daugiau tiesioginės ir matomos naudos.
Be to, tarptautinis koordinavimas ir standartai vaidins svarbų vaidmenį. Skirtingos šalys gali turėti skirtingą toleranciją rizikai ir skirtingas prioritetų sritis: kai kurios galbūt skatins greitą pajėgumų didinimą, kitos — stipresnį reguliavimą ir skaidrumą. Tokia įvairovė gali paskatinti technologinės migracijos rizikas arba „saugumo arbitražą", todėl daugiašalis dialogas tarp vyriausybių, pramonės ir nevyriausybinių organizacijų yra būtinas.
Suleyman pozicija taip pat pabrėžia, kad technologijų kūrėjai turi prisiimti atsakomybę už savo produktų poveikį. Tai apima ne tik techninius sprendimus, bet ir dalyvavimą viešuose debatuose, mokslinėse publikacijose, reguliavimo rekomendacijose ir bendradarbiavime su nepriklausomais audito įstaigomis. Tokiu būdu sektorius galėtų paremti patikimą, viešajam interesui atitinkantį DI vystymą.
Galutinis pasirinkimas, kurį priims įmonės šiandien — ar sekti teorinius intelekto aukštumas, ar kurti sistemas, kurios akivaizdžiai ir patikimai tarnaus žmonėms — gali lemti, kaip visuomenė priims ateinančią DI bangą. Reguliavimas, priežiūra ir investicijų kryptis, kurie bus suformuoti dabar, turės ilgalaikį poveikį saugumo, darbo rinkos, švietimo ir demokratinių institucijų raidai.
Šaltinis: smarti
Komentarai
atombanga
Ar tikrai galim tiek pasitikėt DI jei nežinom kaip jį „pririšti“ prie žmogaus vertybių? daug keblių klausimų...
Marius
Na, idėja graži, bet skamba kaip tech lenktynės. Reikia daugiau saugumo, o ne blizgesio. Ar realu?
Palikite komentarą