6 Minutės
OpenAI pasirinko Amazon Web Services (AWS) valdyti ChatGPT, sudarydama septynių metų partnerystę, kurios vertė siekia 38 mlrd. JAV dolerių. Ši sutartis suteikia OpenAI prieigą prie EC2 UltraServers ir didžiulių Nvidia GPU klasterių, specialiai pritaikytų didelio masto generatyviniam dirbtiniam intelektui (generatyvinis AI). Tokia infrastruktūra leidžia paleisti tiek mokymą, tiek inferenciją didesniais modeliais ir didesniu užsakymų srautu, taip užtikrinant ChatGPT ir su juo susijusių kūrėjų API stabilumą bei augimą.
Why AWS was the strategic choice
OpenAI teigia, kad šis sprendimas susijęs su greičiu, mastu ir saugumu. AWS turi ilgą patirtį valdant dideles debesų AI diegimo operacijas ir gali pasiūlyti kainos, našumo bei pasaulinio pasiekiamumo kombinaciją, kurios reikia OpenAI, kai vartotojų ir kūrėjų paklausa ChatGPT bei API nuolat auga. AWS infrastruktūra leidžia dinamiškai skirti šimtus tūkstančių GPU, palaikyti žemą latenciją ir vienu metu aptarnauti didelius lygiagretumo lygius – tai esminiai operaciniai reikalavimai generatyviniam AI gamybiniame lygyje.
Strateginė AWS pasirinkimo prielaida taip pat apima sistemos valdymo priemones, debesų regionų tinklą ir teisines bei atitikties galimybes, kurios svarbios tarptautinėms paslaugoms. Galimybių valdymas, saugumo sertifikatai, duomenų vietos kontrolė ir integracija su debesų operacijų įrankiais leidžia OpenAI greičiau diegti naujus modelius ir naujoves prie egzistuojančių produktų. Be to, AWS gebėjimas optimizuoti kainą per ilgalaikes sutartis ir tūrio nuolaidas padeda planuoti sąnaudų valdymą didelio masto GPU infrastruktūrai.
What the $38 billion agreement includes
Ši daugiametė įsipareigojimo sutartis apima infrastruktūrą ir talpą, kuri bus įdiegta iki 2026 metų pabaigos, su galimybėmis plėstis nuo 2027 metų. Svarbiausi techniniai elementai apima tiek aparatūrinius, tiek architektūrinius sprendimus, kurie orientuoti į generatyvinio AI poreikius: skalę, našumą, tinklo greitį ir operacinį valdymą.
- Amazon EC2 UltraServers, optimizuoti generatyvinių AI darbo krūviams, suteikiantys aukštą tankį ir specializuotas tinklo jungtis.
- Prieiga prie šimtų tūkstančių Nvidia GPU, įskaitant GB200 ir GB300 serijas, skirtas tiek mokymui, tiek aukštos spartos inferencijai.
- Galimybė išplėsti skaičiavimo išteklius iki dešimčių milijonų CPU branduolių mišriems skaičiavimo poreikiams ir hibridiniams darbo krūviams.
- Architektūrinis dizainas, klasterizuojantis GPU tame pačiame tinkle su žema latencija ir dideliu pralaidumu, kad būtų sumažintos perkėlimo ir sinchronizacijos užlaidos.

How this will change ChatGPT’s performance
Kol kas eksploatuojant didelius kiekius aukštos klasės Nvidia GPU vienoje suderintoje, žemos latencijos tinkle, OpenAI turės galimybę mokyti ir tiekti didesnius modelius greičiau bei su mažesne inferencijos atsilikimo (latency) rizika vartotojams. Dėmesys architektūrai, kuri sudeda GPU greta vieno tinklo, leidžia efektyviau vykdyti tiek modelio paralelizaciją (model parallelism), tiek duomenų paralelizaciją (data parallelism), o tai sumažina tinklo srautus ir sinchronizacijos ribas tarp mazgų.
Toks išdėstymas taip pat pagerina bendrą pralaidumą (throughput) aptarnaujant lygiagrečias užklausas: daugiau užklausų gali būti apdorojama vienu metu be reikšmingo našumo kritimo. Kūrėjams tai reiškia greitesnį atsakų laiką (latency) realioms užklausoms, didesnį užklausų per sekundę (QPS) pajėgumą ir mažesnį jausmą dėl modelių įkrovos (cold start), kai diegiami nauji paslaugų instancijos arba vykdomi sudėtingesni modelių eksperimentai.
Be to, infrastruktūros optimizavimas leidžia OpenAI eksperimentuoti su platesniu modelių spektru — nuo didžiulių milijardų parametrų modelių iki specializuotų hibridinių modeliavimo sprendimų, naudodamas pažangias mokymo strategijas (pavyzdžiui, mišrų tikslumą, suskirstytą mokymą, banginius (pipeline) ir paskirstytą treniruočių valdymą). Visa tai prisideda prie funkcinių patobulinimų ChatGPT; naudotojai gali tikėtis spartesnių atsakymų, didesnės konteksinės atminties palaikymo ir greitesnių atnaujinimų diegimo gale.
Why the deal matters beyond the headline number
38 mlrd. dolerių skaičius pritraukia dėmesį, tačiau platesnė reikšmė — tai industrijos judėjimas link hiperskalinės, vertikaliai integruotos AI infrastruktūros. Tokios ilgalaikės sutartys formuoja, kur ir kaip kuriamas bei diegiamas naujos kartos dirbtinis intelektas: atsiranda stipresnės sinergijos tarp programinės įrangos kūrėjų (OpenAI), aparatūros (Nvidia) ir debesų paslaugų teikėjų (AWS). Tai reiškia, kad didesni verslai ir kūrėjai gaus patikimesnę prieigą prie pažangių modelių, o funkcijų ir naujovių diegimas gali vykti greičiau bei stabiliau.
Įmonių perspektyvoje tai gali reikšti mažesnę riziką pasiekti aukštas AI galimybes be didelių atskiros infrastruktūros kaštų: vietoje statyti savo GPU parką, verslai gali naudotis debesų teikiamais sprendimais ir mokėti už panaudojimą ar ilgalaikes sutartis. Kūrėjams tai suteikia platesnį eksperimentavimo laisvę, prieigą prie pažangiausių GPU, ir greitesnį kelią nuo prototipo iki gamybos.
Konkurentams ši partnerystė yra signalas apie tai, kaip didžiųjų debesų bendradarbiavimai gali nukreipti AI technologijų vystymą. Debesų strategijų persidengimas, specializuotos aparatinės įrangos prieinamumas ir ilgesnės sutartys su AI platformų kūrėjais gali lemti, kurie tiekėjai taps pagrindiniais infrastruktūros kūrėjais ir paslaugų tiekėjais artimiausiais metais. Taip pat tai prisideda prie Nvidia GPU ekosistemos augimo: didelė paklausa paskatins naujų lustų ir tinklo sprendimų vystymą bei tiekimo grandinių optimizavimą.
Nepriklausomai nuo to, ar stebite ChatGPT produktų patobulinimus, debesų rinkos judėjimus, ar sekate Nvidia GPU ekosistemą, ši AWS ir OpenAI sutartis yra reikšmingas etapas didelio masto generatyvinio AI komercializacijoje — ji formuos paslaugų prieinamumą, kainodarą ir technologinę plėtrą artimiausiuose keliuose metų.
Šaltinis: gsmarena
Palikite komentarą