Dirbtinio intelekto vadovaujami mitybos patarimai baigėsi ligoninėje: atvejo apžvalga | Digin - Technologijų naujienos, apžvalgos ir tendencijos Lietuvoje
Dirbtinio intelekto vadovaujami mitybos patarimai baigėsi ligoninėje: atvejo apžvalga

Dirbtinio intelekto vadovaujami mitybos patarimai baigėsi ligoninėje: atvejo apžvalga

2025-08-09
0 Komentarai Domantas Čepaitis

4 Minutės

Dirbtinio intelekto vadovaujami mitybos patarimai baigėsi ligonine: atvejo apžvalga

Naujausias klinikų iš Vašingtono universitetinės ligoninės atliktas atvejo tyrimas skamba kaip įspėjamoji istorija iš spekuliatyviosios fikcijos: vyras sekė ChatGPT pateiktus mitybos patarimus ir išsivystė bromido apsinuodijimas, kuriam užsibaigė ūmine psichozė. Pranešimas, publikuotas žurnale Annals of Internal Medicine: Clinical Cases, fiksuoja, kaip AI pagalba pakeitė jo druskos chemiją ir lėmė kelias savaites trunkančią hospitalizaciją bei intensyvią psichiatrijos priežiūrą, kol jis galiausiai pasveiko.

Byla: AI pasiūlymas, bromidas ir klinikinis rezultatas

Pacientas atvyko į neatidėliotinos pagalbos skyrių išsekusiam su sujaudinimu, paranoja, regimomis ir girdimomis haliucinacijomis, troškulio nejautė ir atsisakė gerti vandens. Klinikai ankstyvame įvertinime įtaria bromizmą — lėtinį bromido toksiškumą. Jis gavo intraveninių skysčių ir antipsichotinį gydymą, buvo laikomas priverstinei psichiatrijos priežiūrai sunkios negalios dėl ūmios fazės, o vėliau stabilizavosi. Po trijų savaičių ligoninėje ir tolesnio stebėjimo jis buvo išrašytas ir dviejų savaičių patikrinimo metu liko stabilus.

Kas yra bromidas ir kodėl tai svarbu

Bromido druskos istorijoje buvo naudojamos tokioms sąlygoms kaip nemiga ir nerimas, tačiau iki 1980-ųjų buvo pašalintos iš daugumos žmogaus vaistų, kai nuolatinis vartojimas buvo susijęs su neuropsichiniais poveikiais. Šiandien bromido junginiai vis dar pasitaiko kai kuriuose veterinariniuose preparatuose, papildomuose ir nišiniuose vartotojų produktuose, todėl bromizmo atvejų pasitaiko ir dabar. Šis įvykis išsiskiria dėl to, kad, kaip manoma, tai yra pirmasis AI skatinamas bromido apsinuodijimo dokumentuotas atvejis.

Kaip AI sąveika galėjo prisidėti

Pagal klinikų nuomonę, vyras universitete studijavo mitybą ir vertino per didelį natrio chlorido vartojimą kaip problemą. Ieškodamas alternatyvų jis kreipėsi į ChatGPT ir – kaip vėliau pranešė – suprato modelio atsakymus kaip teiginius, kad dietą galima pakeisti chloridą bromidu. Vėliau jis įsigijo ir vartojo natrio bromidą maždaug tris mėnesius. Autoriai įtaria, kad naudoti modeliai buvo ChatGPT 3.5 arba 4.0, ir nors negalėjo prieiti prie naudotojo pokalbių žurnalo, kartojant užklausą ChatGPT 3.5 gavo atsakymą, kuriame bromidas pateiktas kaip chlorido pakeitimas tam tikruose kontekstuose.

Išryškėję AI ribotumai: kontekstą neteikianti informacija ir haliucinacijų rizika

Esminė išvada yra ta, kad AI atsakymas nepateikė tinkamo konteksto ar toksiškumo įspėjimų ir neprašė paaiškinančių klausimų apie ketinimą. Pervartojimo įvairovė tikriausiai atspindėjo kontekstą netekusią žinią — cheminiai pakaitalai, aprašyti ne dietiniams kontekstams (pvz., valymui ar pramonei), buvo neteisingai pritaikyti žmogaus vartojimui. Tai akivaizdžiai iliustruoja didžiųjų kalbos modelių (LLM) dažniausiai pasitaikančias silpnybes: įtikinamai skamba, bet nesaugūs patarimai, trūksta sričių specifinių gairių ir nepakankamas vartotojo ketinimo patikrinimas prieš pateikiant potencialiai pavojingus patarimus.

Todėl žmogaus ekspertas dažnai būtų kitoks

Pranešimas pabrėžia, kad išsilavinęs medicinos specialistas beveik tikrai nerekomenduotų pakeisti dietinio chlorido bromidu. Žmogaus klinikai taiko klinikinį vertinimą, kelia paaiškinančius klausimus ir įtraukia saugumo įspėjimus — savybės, kurias bendro pobūdžio AI pokalbių įrankiai gali neteikti nuosekliai.

Produkto savybės ir palyginimai: ChatGPT vs specializuotas medicininis AI

Bendro pobūdžio LLM, pavyzdžiui, ChatGPT, teikia platesnį žinių spektrą, stiprią natūralios kalbos supratimą ir greitą vartotojo prieigą — naudingos savybės neprofesionalioms paieškoms ir produktyvumui. Palyginti su specializuotais klinikiniais AI ar sprendimų palaikymo sistemomis, tokių modelių dažnai trūksta patikrintų medicininių darbo srautų, patvirtintų šaltinių ir integruotų toksiškumo įspėjimų. Įmonėms skirti medicininiai AI produktai dažnai apima funkcijas, pritaikytas sveikatos priežiūrai: įrodymų citatos, gydytojo įtraukties darbo eigos, reguliavimo atitikties įrankiai ir griežti įvedimo šablonai, siekiant išvengti pavojingų rekomendacijų.

Privalumai ir kompromisai

  • ChatGPT ir panašūs LLM: plačiai prieinami, greiti atsakymai, stipri pokalbio naudotojo patirtis, tačiau didesnė haliucinacijų ir nesaugų patarimų rizika.
  • Specializuoti medicininiai modeliai: tikslumas, klinikinių įrodymų citavimas ir reguliavimo atitiktis, bet dažnai reikalauja institucinio prieigos ir didesnių vystymo kaštų.

Naudojimo atvejai ir rinkos aktualumas

Šis įvykis pabrėžia skubią rinkos poreikį patikimiems skaitmeninės sveikatos įrankiams: patvirtintų simptomų tikrintojų, gydytojo patvirtintų AI pagalbininkų ir toksikologiniai dėmesingų vartotojų platformų. Kai AI priėmimas plečiasi skaitmeninėje sveikatoje ir gerovės programėlėse, įmonėms tenka akcentuoti saugumo savybes: ketinimų atpažinimą, kontraindikacijų patikrinimus, toksiškumo duomenų bazes ir aiškius perspėjimus. Reglamentavimo institucijos ir sveikatos priežiūros teikėjai vis dažniau tikslina modelių validaciją, duomenų kilmę ir žmogaus priežiūrą — veiksnius, tiesiogiai darančius įtaką produktų planams ir rinkos pasitikėjimui.

Geriausios praktikos: kaip naudotojai ir kūrėjai gali sumažinti riziką

Vartotojai turėtų traktuo­ti LLM išvestis kaip pradines kryptis, o ne kaip medicinines receptas: patikrinti su pirminiais šaltiniais, kreiptis į licencijuotus gydytojus ir vengti AI rekomenduotų medžiagų vartojimo be medicininio patvirtinimo. Kūrėjai turėtų įgyvendinti užklausų inžinerijos apsaugos priemones, kontekstui jautrius filtrus ir toksiškumo paieškos integracijas. Technologams ir produktų vadovams kurti sveikatos SR AI, kelias aiškus: griežtesni saugikliai, gydytojo įtrauktis į procesą, skaidri kilmė ir aiškūs vartotojo ketinimo patikslinimai.

Išvada technologijų profesionalams ir entuziastams

Šis atvejis yra ryškus priminimas, kad AI gali paspartinti atradimus ir tuo pačiu skleisti klaidingą informaciją. Technologijų specialistams tai parodo, kodėl saugumas, paaiškinamumas ir atitiktis nėra abstrakčios prioritetų sritys, o produkto būtinosios savybės. Vartotojams tai patvirtina poreikį būti skeptiškiems ir patikrinti žmogaus nuomonę, kai svarbą turi sveikata ir žmogaus saugumas.

Šaltinis: gizmodo

„Esu žaidimų entuziastas ir AI entuziastas. Rašau apie tai, kas svarbu – naujausius žaidimus, AI projektus ir tai, kaip šie du pasauliai jungiasi.“

Komentarai

Palikite komentarą