9 Minutės
Tensija šįkart neateina iš reguliatorių ar konkurentų. Ji kyla iš pačių laboratorijų.
Šimtai inžinierių ir tyrėjų, dirbančių Google ir OpenAI, pasirašė įtakingą atvirą laišką, ragindami savo darbdavius atsispirti augančiam JAV karinių struktūrų spaudimui silpninti apribojimus dėl to, kaip leidžiama diegti dirbtinį intelektą (DI). Iš viso beveik tūkstantis darbuotojų pridėjo savo vardus prie žinutės, kurioje aiškiai skelbiamas šūkis: „Mes nebūsime suskaldyti.“
Ši frazė nukreipta tiesiai į tai, ką pasirašantieji apibūdina kaip vyriausybės pareigūnų strategiją tyliai stumti DI įmones link kariškos bendradarbiavimo schema — įmonė po įmonės, sandoris po sandorio — kol etiniai apsauginiai mechanizmai pradės nykti.
„Jie bando suskaldyti kiekvieną įmonę, skleisdami baimę, kad kita pasiduos,“ teigia laiškas. „Tokia strategija veikia tik tada, kai mes nežinome, kurioje pusėje stovi kiti.“
Pareiškimas pasirodo jautriu metu DI pramonei. Kai dideli kalbos modeliai ir generatyviniai DI sprendimai tampa žymiai pajėgesni, vyriausybės vis labiau domisi jų galimybėmis žvalgybai analizuoti, sprendimų priėmimui karo lauke bei stebėjimui ir masinei priežiūrai.
Ir statymai jau nebe hipoteziniai.
Neseniai Pentagono ataskaitoje DI startuolis Anthropic buvo pažymėtas kaip „tiekimo grandinės rizika“, po to, kai, kaip pranešta, bendrovė atsisakė leisti savo technologijai būti naudojamai vidaus masinei priežiūrai arba visiškai autonominiams ginklams. Šis žingsnis nustebino daug stebėtojų Silicio slėnyje ir atgaivino diskusijas tarp inžinierių, kurie tiesiogiai kuria galingiausius šiuolaikinius DI modelius.
Dar labiau įtampą didina pranešimai, kad Google ir OpenAI gali derėtis dėl panašių susitarimų, kuriuos Anthropic atsisakė priimti.
Gerai žinoma silicio slėnio įtampa
Daugeliui Google darbuotojų dabartinis momentas atrodo kaip istorijos pasikartojimas.
2018 metais tūkstančiai darbuotojų protestavo prieš bendrovės dalyvavimą Pentagono projekte „Project Maven“, kuriame naudota mašininio mokymosi analizė dronų vaizdo stebėjimui. Vidaus pasipriešinimas tapo toks stiprus, kad Google leido sutarčiai pasibaigti ir vėliau pristatė formalią DI etikos gairių sistemą, žinomą kaip AI Principles.
Tuo metu Google pasižadėjo vengti technologijų, skirtų kenkimui ar priežiūrai, kurios pažeidžia tarptautines normas.
Naujasis laiškas rodo, kad šie pažadai vėl yra išbandomi.
Pasirašiusieji teigia, kad šiuolaikinės DI sistemos yra per daug galingos, kad jomis būtų galima elgtis kaip su paprastomis programinės įrangos prekėmis, derant per įprastas gynybos sutartis. Pažangūs generatyviniai modeliai gali apdoroti žvalgybinę informaciją, interpretuoti vaizdus, santrumpinti milžiniškus duomenų rinkinius ir potencialiai padėti taiklumą reikalaujančiuose sprendimuose greičiu, kurio žmogaus analitikai negali pasiekti.
Kai kurie tyrėjai nurodo ankstyvas karo simuliacijas, kuriose DI sistemos agresyviai eskalavo konfliktus — kartais netgi modeliuotose sąlygose linkusios rinktis branduolinius sprendimus. Šie tyrimai išlieka eksperimentiniai, bet jie atkreipia dėmesį į tai, kiek neprognozuojamas gali tapti mašinų sprendimų priėmimas karinėse aplinkose.
Inžinieriams, kurie kuria šias sistemas, mintis perduoti priežiūros infrastruktūros kontrolę — arba, dar blogiau, autonominių ginklų — kelia rimtų etinių klausimų.
Atviras laiškas neįprastas ne tik dėl savo turinio, bet ir dėl koalicijos. Konkurentų darbuotojai retai koordinuoja viešus pareiškimus tokiu mastu pramonėje, kurioje talentai, moksliniai proveržiai ir infrastruktūra yra griežtai ginami.
Vis dėlto dalyvaujantys darbuotojai teigia, kad konkurencija nėra pagrindinis klausimas. Jų argumentas paprastas: kai technologija pradeda keisti pasaulinės galios struktūras, ją kuriančių žmonių pareiga aiškiai kalbėti apie jos ribas.
Ar laiškas pakeis korporatyvinę strategiją — dar neaišku. Gynybos partnerystės yra pelningos, o vyriausybės visame pasaulyje skuba integruoti DI į nacionalinio saugumo planavimą.
Tačiau žinutė iš pačių industrijos vidurio jau įrašyta į viešą archyvą — ji kolektyvinė, vieša ir sunkiai klaidinga.
Kodėl tai svarbu: etika, technologija ir saugumas
Diskusija nėra vien techninė — ji siejasi su plataus masto politiniais ir moraliniais klausimais. Dirbtinis intelektas, ypač dideli kalbos modeliai ir generatyvinė mašina, turi tris tarpusavyje susijusias rizikas:
- misuse (piktnaudžiavimas): technologija gali būti pritaikyta masinei priežiūrai, informacinėms operacijoms ar kitiems represiniams veiksmams;
- escalation (eskalacija): automatizuoti sprendimų palaikymo įrankiai kariuomenėje gali sumažinti žmogaus sprendimo ribą ir padidinti konfliktų greitį;
- misalignment (neatitikimas): modeliai gali elgtis netikėtai, ypač sudėtingose, daug informacijos reikalaujančiose situacijose.
Visos šios rizikos kelia klausimą apie atsakomybę: kas yra atsakingas už sprendimus, kai DI įrankis dalyvauja operacijoje — kūrėjas, integratorius ar galiausiai užsakovas? Teisiniai ir etiniai rėmai dažnai atsilieka nuo technologinės pažangos, todėl inžinieriai ir tyrėjai reikalauja aiškesnių gairių ir tarptautinių standartų.
Techniniai aspektai, kuriuos nurodo pasirašiusieji
Pasirašiusieji inžinieriai dažnai pažymi kelis techninius veiksnius, dėl kurių DI negali būti traktuojamas kaip įprasta programinė įranga:
- Adaptacija ir generalizacija: generatyviniai modeliai gali pritaikyti žinias naujoms užduotims be atskiro programavimo, todėl jų poveikis kontekste gali būti nenuspėjamas;
- greitis ir automatizacija: kai DI gali veikti realiu laiku ir automatiškai inicijuoti veiksmus, žmogaus kontrolė gali tapti nominali;
- duomenų priklausomybė: modelių sprendimai labai priklauso nuo mokymo duomenų, o jų šališkumas ar trūkumai gali būti uždengti kaip „objektyvi informacija“;
- tikrinamumo problema: sudėtingi neuroniniai tinklai nėra visiškai interpretuojami, todėl sunku nustatyti, kodėl jie priėmė tam tikrą pasirinkimą kritinėse situacijose.
Šie techniniai argumentai pabrėžia, kodėl kai kurie inžinieriai siūlo nustatyti aiškias ribas dėl DI naudojimo kariniais tikslais, įskaitant draudimus tam tikroms taikymosi rūšims, nepriklausomus saugumo auditus ir privalomą žmogaus kontrolės mechanizmą (human-in-the-loop) kritiniuose sprendimuose.
Istorinės paralelės: Project Maven ir pamokos
Projektas Maven 2018 m. tapo svarbiu precedentu. Tuometinė vieša reakcija parodė, kad organizacijos kultūra ir darbuotojų protestas gali daryti realų poveikį verslo sprendimams ir gynybos sutartims. Iš to galima išskirti keletą pamokų:
- Darbuotojų balsas gali pakeisti verslo kryptį, ypač kai jis turi moralinę ir viešumo paramą;
- Korporacijos gali sukurti etikos principus, bet jų taikymas reikalauja nuoseklumo ir skaidrumo;
- Vyriausybių poreikis greitai pritaikyti DI nacionaliniam saugumui sukelia spaudimą, kuris gali konfliktuoti su įmonių įsipareigojimais tarptautinėms žmogaus teisių normoms.
Todėl dabartinis laiškas suprantamas kaip antrasis etapo bandymas apibrėžti ribas, o gal ir kaip savarankiškas įspėjimas, kad pramonė siekia tiesiogiai dalyvauti formuojant taisykles.
Galimos pasekmės ir strategijos
Jei kompanijos atsispirs karinėms užklausoms, tai gali turėti tiek trumpalaikių, tiek ilgalaikių pasekmių:
- trumpalaikė: prarasti užsakymai ir pajamos iš gynybos sektoriaus, konfliktas su vyriausybinėmis agentūromis;
- ilgalaikė: reputacijos stiprinimas tarp vartotojų ir darbuotojų, galimas poveikis reguliavimui, kuriame dalyvauja technologijų pramonė;
- technologinė paskata: jeigu viena įmonė atsisako, vyriausybės gali ieškoti alternatyvių tiekėjų arba investuoti į vidaus sprendimus, keisdamos rinkos pusiausvyrą.
Įmonių strategijos gali skirtis: nuo visiško atsisakymo dalyvauti tam tikruose kariniuose projektuose iki bandymų sukurti griežtas vidines kontrolės procedūras ir skaidrias ataskaitas apie sąveiką su kariuomene.
Tarptautinė perspektyva ir reguliavimo poreikis
Problema nėra ribota vien JAV. Tarptautiniu mastu kyla klausimų apie tai, kaip koordinuoti normas dėl DI karinėms programoms, įskaitant:
- Bendrų tarptautinių standartų poreikį autonominių ginklų srityje;
- Trečiųjų šalių ir tarptautinių organizacijų vaidmenį aiškinant, kas yra priimtina karo technologijų taikymas;
- Reguliavimo mechanizmus, kurie suderintų saugumą, inovacijas ir žmogaus teisių apsaugą.
Be to, technologijų eksportas ir tiekimo grandinės rizikos, kaip tai pabrėžė Pentagono žyma Anthropic, atveria diskusijas apie tiekimo saugumą, trečiųjų valstybių įtaką ir kibernetinę atsparumą.
Inžinierių vaidmuo ir profesinė atsakomybė
Inžinieriai ir tyrėjai, kurie pasirašė laišką, pabrėžia profesinės atsakomybės svarbą. Tai apima:
- aktyvų nuoširdų dalyvavimą įmonių politikos formavime;
- aiškų dangalą, kas yra leidžiama, o kas — ne;
- iniciatyvą dėl nepriklausomų saugumo auditų ir tretinių etinių priežiūros institucijų;
- švietimo ir viešų diskusijų skatinimą apie DI naudojimo pasekmes nacionaliniame ir tarptautiniame lygmenyje.
Toks požiūris siekia ne tik užkirsti kelią galimam piktnaudžiavimui, bet ir pagerinti technologijos patikimumą bei visuomenės pasitikėjimą.
Profesinis ir viešasis dialogas
Šis atviras laiškas taip pat skatina platesnį dialogą tarp verslo, valstybės ir akademinės bendruomenės. Tokios diskusijos gali sutelkti dėmesį į:
- konkrečių draudimų ir apribojimų nustatymą tam tikroms DI taikymo sritims;
- standartizuotus saugumo ir audito metodus, kurie būtų pritaikomi generatyviniams modeliams;
- atitikties ir priežiūros mechanizmus, kurie užtikrintų skaidrumą bendradarbiaujant su gynybos struktūromis;
- viešųjų interesų gynėjų įtraukimo didinimą sprendimų priėmime.
Tik per tokį tarpdisciplininį požiūrį galima suderinti technologinį progresą su visuomenine apsauga.
Kas toliau?
Ateitis priklausys nuo kelių veiksnių: ar įmonės darys spaudimą vyriausybėms dėl aiškesnių taisyklių; ar darbuotojų balsas išliks nuoseklus ir gerai organizuotas; ir ar tarptautinės organizacijos sugebės susitarti dėl minimalių normų. Kol kas aišku viena: diskusija tapo vieša ir negali būti lengvai ignoruojama.
Dirbtinis intelektas yra technologija, kuri gali pakeisti ne tik pramonės šakas, bet ir tarptautines saugumo struktūras. Todėl etikos, saugumo ir politikos dialogas turi vykti lygiagrečiai su technine plėtra — taip bus didesnė tikimybė, kad DI nauda bus išnaudota saugiai ir atsakingai.
Žinutė, pasirašyta šimtais industrijos specialistų, yra aiški: jie siekia, kad sprendimai dėl DI naudojimo kariniais tikslais būtų priimami skaidriai, su žmogaus atsakomybe ir tarptautinių normų atsižvelgimu.
Komentarai
saugok
Hmmm ar tai tik žingsnis į niekur? Gera, kad darbuotojai garsiai, bet vyriausybės spaudimas, kas tai sustabdys... Nebent aiškios taisyklės.
Tomas
WOW netikėtai stipru. Inžinieriai pagaliau garsiai kalba, bet ar korporacijos ištvers spaudimą? Jei prasidės kompromisai, bus tik blogiau...
Palikite komentarą