8 Minutės
Sam Altman paprastai neskamba kaip žmogus, ruošęsis teisiniam konfliktui. Šįkart jis skambėjo kitaip.
Po kritikos dėl ką tik atskleistų OpenAI darbų su JAV Gynybos departamentu generalinis direktorius teigia, kad įmonė perrašys sutarties nuostatas, kad viena žinia būtų neabejotina: OpenAI dirbtinio intelekto sistemos neturi būti naudojamos Amerikos piliečių masinei priežiūrai.
Altmanas paviešino vidinį memorandumą, kuris iš pradžių buvo išsiųstas darbuotojams, aiškiai išdėstantį pakeitimus. Pagal atnaujintą formulavimą, kaip jis nurodo, bus aiškiai uždrausta tyčinė vidaus priežiūra JAV asmenų atžvilgiu ir tai bus susieta su esamais teisiniais saugikliais, tokiais kaip Ketvirtoji pataisa, Nacionalinio saugumo įstatymas ir Užsienio žvalgybos stebėjimo įstatymas (FISA).
Memorandumo siūlomas tekstas yra neįprastai tiesus vyriausybės rangovo standartu. Jame teigiama, kad, laikantis taikomų JAV teisės aktų, DI sistema 'neturėtų būti tyčia naudojama vidaus priežiūrai JAV asmenų ir piliečių atžvilgiu'. Taip pat pridėta paaiškinamoji eilutė, skirta užkirsti kelią spragoms, pabrėžianti, kad draudimas apima tyčinį sekimą ar stebėjimą, net jei jis remiamas komerciškai įsigyjama asmenine ar identifikuojama informacija.
Sutarties pakeitimas ir aiški riba
Altmanas taip pat teigia, kad Gynybos departamentas patvirtino dar vieną kritinį momentą, kuriuo iš karto susirūpino kritikai: pagal esamą susitarimą OpenAI paslaugos nebus nukreiptos į JAV žvalgybos agentūras, tokias kaip NSA. Jeigu tai kada nors pasikeistų, jis sako, reikėtų sutarties pakeitimo.
Paskutinė frazė, kuri greičiausiai sklido greičiausiai, skambėjo taip: Altmanas parašė, kad jei gautų įsakymą, kurį jis laiko prieštaraujančiu konstitucijai, jis verčiau eitų į kalėjimą, negu vykdytų. Tai dramatiškas pasakymas, tačiau taip pat signalas, kad OpenAI bando nubrėžti aiškią ribą tarp 'gynybinio darbo' ir 'vidaus stebėjimo' — skirtumo, kuris linkęs susilieti, kai į vaizdą įeina dirbtinis intelektas.
Jis taip pat pripažino, kad pranešimo pateikimo eiga buvo chaotiška. Pasak jo, OpenAI paskelbė informaciją per skubotai — jis sakė, kad klausimai yra labai sudėtingi ir reikalauja aiškesnės komunikacijos. Intencija, pasak jo, buvo sumažinti įtampą ir išvengti dar rimtesnių pasekmių. Vietoje to, laikas ir komunikacija padarė sandorį atrodantį oportunistišku.
Ir laikas iš tiesų buvo jautrus. OpenAI partnerystė iškilo viešai netrukus po to, kai prezidentas Donaldas Trumpas nurodė JAV vyriausybės agentūroms nutraukti Anthropic Claude ir kitas Anthropic paslaugas. Anthropic, beje, dirba su federaline vyriausybe nuo 2024 metų.
Teisiniai saugikliai ir jų pritaikymas
Pristatytas draudimas susieti DI panaudojimą su Ketvirtąja pataisa, Nacionalinio saugumo įstatymu ir FISA reiškia, kad OpenAI siekia įtraukti tiek konstitucinius, tiek įstatymų lygmeniu galiojančius apribojimus. Teoriškai tai suteikia papildomą teisinę svertę: jei sutarties formuluotė atitiks konkrečius teisės aktų reikalavimus, bus sunkiau argumentuoti, kad paslaugų panaudojimas vidaus stebėjimui yra teisėtas be aiškaus pakeitimo sutartyje.
Praktikoje tai reiškia:
- Aiškus sutarčių kalbos suformulavimas, kuris uždraudžia tyčinę vidaus stebėseną;
- Nuorodų į esamus teisės aktus įtraukimas, kad būtų parodyta suderinamumas su esama teisine sistema;
- Procedūros sutartyse, numatančios, kad bet koks žingsnis, leidžiantis žvalgybai ar kitiems subjektams naudoti paslaugas vidaus priežiūrai, reikalautų formalaus pakeitimo su abiejų šalių sutikimu.
Tuo pačiu metu teisiniai terminai ne visada užtikrina praktinę apsaugą: daug priklauso nuo to, kaip bus įgyvendinami techniniai reikalavimai, prieigos kontrolė, auditas ir atsakomybės mechanizmai. Tai reiškia būtinybę derinti teisinius ir techninius saugiklius.
Techniniai implikacijos ir įgyvendinimas
Net ir turint aiškų sutartinį draudimą, techniniai sprendimai yra lemiami. Aiškus pavyzdys: kaip atskirti gynybinius naudojimo atvejus nuo vidaus stebėjimo, jei abu naudoja panašius analizės įrankius ar modelių atsakymų srautą? Tai reikalauja:
- Detalaus prieigos valdymo (role-based access control) diegimo;
- Duomenų klasifikacijos ir tagavimo mechanizmų, leidžiančių atskirti valstybinių interesų duomenis nuo komercinių ar asmeninių duomenų;
- Nuolatinio auditavimo, žurnalų ir pritaikomų ataskaitų, kurios įrodytų, kad modeliai nebuvo naudojami draudžiamiems tikslams;
- Sisteminio rizikos valdymo, apimančio tiek tiekimo grandinės riziką, tiek galimus prieigos užgrobimo atvejus.
Toks techninis rinkinys reikalauja ne tik inžinerinių pokyčių, bet ir aiškių sutartinių reikalavimų dėl prieigos, atsakybų ir sankcijų už pažeidimus.
Anthropic, saugikliai ir politinė įtampa
Gilesnė istorija čia nėra tik dėl vienos sutarties nuostatos — tai vis didėjanti atotrūkio tarp didžiųjų DI laboratorijų problema dėl to, ką jos leis savo modeliams daryti valdžios rankose.
Pasak Altmano memorandume cituojamos žiniasklaidos informacijos, Gynybos departamento vadovybė ir sekretorius Pete Hegseth spaudė Anthropic silpninti Claude saugiklius, kad modelis galėtų būti naudojamas bet kokiam 'teisėtam' tikslui. Tokiame sąraše, kaip pranešama, įtraukti ir masinė priežiūra, ir darbas siekiant visiškai autonomiškų ginklų kūrimo.
Anthropic atsisakė. Bendrovė pranešė, kad 'joks atlygis, prievarta ar bausmė' nepakeis jos pozicijos dėl masinės vidaus priežiūros arba visiškai autonominių ginklų. Po to sekė Trumpo įsakymas, o Gynybos departamentas, kaip pranešama, pradėjo pirminius žingsnius priskirti Anthropic prie tiekimo grandinės rizikos kategorijos — etiketė, dažniau skirta užsienio (dažnai kinų) bendrovėms, kurioms įtariami ryšiai su valstybės institucijomis.
Altmanas sako, kad jis sakė JAV pareigūnams, jog Anthropic neturėtų būti pažymėta kaip tiekimo grandinės rizika ir kad jis tikisi, jog Pentagonas pasiūlys Anthropic tokį pat susitarimą, kokį priėmė OpenAI. Savaitgalio AMA platformoje X jis pridūrė, kad jis nežino detalių Anthropic sutarties smulkmenų ar kaip jos skiriasi. Bet jei sutartys būtų esmine prasme panašios, jis mano, kad Anthropic turėjo ją priimti.
Politinių sprendimų ir konkurencijos susikirtimas
Tai nėra vien tik politikos ginčas — tai konkurencinė scena, vykstanti viešai. Kiekvienas sprendimas išryškina skirtingas įmonių vertybes ir strategijas: viena pusė gali pabrėžti griežtus saugiklius ir reputaciją, kita — galimybes ir finansinius susitarimus. Vartotojų pasitikėjimas tampa svarbiu konkurenciniu pranašumu.
Pavyzdžiui, po žinios apie OpenAI susitarimą su Gynybos departamentu, Claude šoktelėjo į pirmą vietą Apple App Store populiariausių nemokamų programų sąraše, aplenkdamas ChatGPT ir Google Gemini. Anthropic greitai reagavo, pristatydama atminties importavimo įrankį, palengvinantį perėjimą tarp pokalbių robotų. Tuo tarpu, pasak Sensor Tower, ChatGPT išsiuntimų skaičius per dieną padidėjo 295%.
Šie judesiai rodo, kad pasitikėjimas vartotojų akyse gali labai greitai išblėsti, kai atrodo, jog saugikliai yra derybiniai objektai. Tai ypač svarbu darbuotojams, klientams ir partneriams, kurie remiasi DI tiekėjų etika ir taisyklėmis.
Reputacijos valdymas ir ilgalaikės pasekmės
Technologijų bendrovės, veikiančios nacionalinio saugumo ir gynybos kontekste, susiduria su sudėtinga dilema: kaip suderinti partnerystę su valstybės institucijomis ir tuo pačiu išlaikyti pasitikėjimą visuomenėje. Sprendimai, priimti šiuo metu, gali turėti ilgalaikį poveikį:
- Reguliacinis atsakas: įvykius gali sekti papildomi įstatymai ar taisyklės, griežtinančios DI taikymą;
- Rinkos pasekmės: vartotojai gali masiškai pereiti prie alternatyvių platformų, kurios aiškiai atsiribos nuo tam tikrų panaudojimo būdų;
- Tarptautiniai santykiai: tiekimo grandinės rizikos žymėjimas gali paveikti bendrovių gebėjimą bendradarbiauti tarptautiniu mastu;
- Vidiniai etikos standartai: įmonės gali priimti griežtesnes vidaus politikos gaires, kad apsaugotų reputaciją ir darbuotojų pasitikėjimą.
Galiausiai, sprendimų poveikis priklausys ne tik nuo sutartinių formulavimų, bet ir nuo to, kaip aiškiai ir viešai kompanijos paaiškins savo sprendimus bei kaip atvirai jos leis stebėti paslaugų naudojimą.
Išvados ir ką verta stebėti toliau
Šis atvejis atspindi platesnį klausimą apie tai, kaip technologijų tiekėjai, vyriausybės ir visuomenė turėtų reglamentuoti dirbtinio intelekto naudojimą gynybos ir saugumo kontekstuose. Svarbiausi dalykai, į kuriuos verta atkreipti dėmesį toliau:
- Kaip bus įformintos sutartys ir ar jos iš tiesų įtvirtins draudimus prieš vidaus priežiūrą;
- Kokie techniniai mechanizmai bus įdiegti užtikrinti, kad modeliai negalėtų būti perkombinuoti draudžiamiems tikslams;
- Ar reguliuotojai reaguos naujais reikalavimais ir kaip tai paveiks tiek privačias, tiek viešąsias organizacijas;
- Kokį poveikį turi vartotojų pasitikėjimo svyravimai DI produktų priėmimui ir rinkos daliai.
Šioje istorijoje susipina teisė, technologija, politika ir konkurencija. Kaip bus sprendžiami šie ginčai, formuos ne tik konkrečius susitarimus tarp įmonių ir vyriausybės, bet ir platesnį požiūrį į DI valdymą bei saugumą ateityje.
Komentarai
duomzona
Ar čia rimtai? Jei sutartys tai gerai, bet kaip jie seks prieigą, auditus, tag'us, ir užkirs kelią perkomponavimui? paprasti teisiniai teiginiai neatsako į tech klausimus
Tomas
wow, Altmanas skamba herojiškai, bet ar tikrai eitų į kalėjimą? įdomu, kas nutiks su praktiniais saugikliais ir kontrolėm, nes žodžiai gerai skamba bet technika irgi svarbi
Palikite komentarą