Prižiūrėk Sveikatą.LT

Sveikata, paslaugos, naujienos

DIRBTINIS INTELEKTAS (DI) MEDICINOJE

Saugiam ir teisingam dirbtiniam intelektui reikia apsauginių turėklų, susijusių su teisės aktais ir žmonėmis


Sveikatos priežiūros organizacijos kartais lėtai pritaikė naujas dirbtinio intelekto priemones ir kitas pažangiausias naujoves dėl pagrįstų saugos ir skaidrumo problemų. Tačiau norint pagerinti priežiūros kokybę ir pacientų rezultatus, sveikatos priežiūrai reikia šių naujovių.

Tačiau būtina, kad jie būtų taikomi teisingai ir etiškai. Vien todėl, kad generacinė AI programa gali išlaikyti medicinos mokyklos testą, dar nereiškia, kad ji yra pasirengusi būti praktikuojančiu gydytoju. Sveikatos priežiūra turėtų naudoti naujausius dirbtinio intelekto pasiekimus ir didelių kalbų modelius, kad šių technologijų galia būtų suteikta medicinos ekspertams, kad jie galėtų teikti geresnę, tikslesnę ir saugesnę priežiūrą.

Dr. Timas O’Connellas yra praktikuojantis radiologas, bendrovės „emtelligent“ įkūrėjas ir vienas iš įkūrėjų.

Kalbėjomės su juo, kad geriau suprastume dirbtinio intelekto apsauginių turėklų svarba sveikatos priežiūros srityje, nes tai padeda modernizuoti medicinos praktiką. Taip pat kalbėjome apie tai, kaip algoritminė diskriminacija gali išsaugoti sveikatos nelygybę, teisėkūros veiksmus, kuriais siekiama nustatyti dirbtinio intelekto saugos standartus – ir kodėl žmonės yra būtini.

K. Kokia yra AI apsauginių turėklų svarba sveikatos priežiūros srityje, nes ši technologija padeda modernizuoti medicinos praktiką?

A. DI technologijos suteikė įdomių galimybių sveikatos priežiūros paslaugų teikėjams, mokėtojams, tyrėjams ir pacientams, suteikdamos geresnių rezultatų ir mažesnių sveikatos priežiūros išlaidų. Tačiau norėdami išnaudoti visą AI potencialą, ypač medicinos AI, turime užtikrinti, kad sveikatos priežiūros specialistai suprastų ir šių technologijų galimybes, ir apribojimus.

Tai apima supratimą apie tokias rizikas kaip neapibrėžtumas, haliucinacijos ir problemos, susijusios su patikimu šaltinių duomenų nuorodomis. Sveikatos priežiūros specialistai turi turėti žinių ne tik apie dirbtinio intelekto naudą, bet ir kritiškai suprasti galimus jo trūkumus, užtikrinant, kad jie galėtų saugiai ir efektyviai naudoti šias priemones įvairiose klinikinėse situacijose.

Labai svarbu sukurti ir laikytis apgalvotų principų, skirtų saugiam ir etiškam AI naudojimui. Šie principai turėtų apimti susirūpinimą dėl privatumo, saugumo ir šališkumo, o jie turi būti grindžiami skaidrumu, atskaitomybe ir sąžiningumu.

Norint sumažinti šališkumą, reikia mokyti dirbtinio intelekto sistemas apie įvairesnius duomenų rinkinius, kuriuose atsižvelgiama į istorinius diagnozių ir sveikatos rezultatų skirtumus, taip pat keičiant mokymo prioritetus, siekiant užtikrinti, kad dirbtinio intelekto sistemos būtų suderintos su realiais sveikatos priežiūros poreikiais.

Dėmesys įvairovei, skaidrumui ir tvirtai priežiūrai, įskaitant apsauginių turėklų kūrimą, užtikrina, kad dirbtinis intelektas gali būti labai veiksminga priemonė, kuri išlieka atspari klaidoms ir padeda reikšmingai pagerinti sveikatos priežiūros rezultatus.

Būtent čia apsauginiai turėklai – gerai parengtos taisyklės, etikos gairės ir eksploatacinės apsaugos priemonės – tampa itin svarbūs. Šios apsaugos priemonės padeda užtikrinti, kad dirbtinio intelekto įrankiai būtų naudojami atsakingai ir efektyviai, sprendžiant su pacientų sauga, duomenų privatumu ir algoritmų šališkumu susijusius klausimus.

Juose taip pat numatyti atskaitomybės mechanizmai, užtikrinantys, kad bet kokios AI sistemų klaidos ar nenumatytos pasekmės būtų atsekamos iki konkrečių sprendimo taškų ir ištaisytos. Šiame kontekste apsauginiai turėklai veikia ir kaip apsaugos priemonės, ir kaip įgalinančios priemonės, leidžiančios sveikatos priežiūros specialistams pasitikėti dirbtinio intelekto sistemomis ir apsisaugoti nuo galimos rizikos.

K. Kaip algoritminė diskriminacija gali išlaikyti sveikatos nelygybę ir ką galima padaryti norint išspręsti šią problemą?

A. Jei dirbtinio intelekto sistemos, kuriomis pasitikime sveikatos priežiūros srityje, nėra tinkamai sukurtos ir apmokytos, kyla labai reali algoritminės diskriminacijos rizika. AI modeliai, parengti naudojant duomenų rinkinius, kurie nėra pakankamai dideli arba įvairūs, kad atspindėtų visą pacientų grupių ir klinikinių charakteristikų spektrą, gali duoti ir duoda šališkus rezultatus.

Tai reiškia, kad dirbtinis intelektas gali teikti ne tokias tikslias arba ne tokias veiksmingas priežiūros rekomendacijas nepakankamai aptarnaujamoms populiacijoms, įskaitant rasines ar etnines mažumas, moteris, asmenis iš žemesnės socialinės ir ekonominės šeimų ir asmenis, sergančius labai retomis ar nedažnomis ligomis.

Pavyzdžiui, jei medicinos kalbos modelis yra apmokytas visų pirma remiantis konkrečios demografijos duomenimis, jam gali būti sunku tiksliai išgauti svarbią informaciją iš klinikinių pastabų, atspindinčių skirtingas sveikatos sąlygas ar kultūrinį kontekstą. Dėl to gali būti praleistos diagnozės, klaidingai interpretuojami paciento simptomai arba neveiksmingos gydymo rekomendacijos populiacijoms, kurias modelis nebuvo išmokytas tinkamai atpažinti.

Tiesą sakant, dirbtinio intelekto sistema gali išsaugoti tą nelygybę, kurią ji turi sumažinti, ypač rasinėms mažumoms, moterims ir pacientams iš žemesnės socialinės ir ekonominės padėties, kuriems tradicinės sveikatos sistemos dažnai jau nepakankamai aptarnaujamos.

Norint išspręsti šią problemą, labai svarbu užtikrinti, kad dirbtinio intelekto sistemos būtų sukurtos remiantis dideliais, labai įvairiais duomenų rinkiniais, kurie fiksuoja daugybę pacientų demografinių rodiklių, klinikinių pristatymų ir sveikatos rezultatų. Duomenys, naudojami šiems modeliams rengti, turi atspindėti skirtingas rases, etnines grupes, lytį, amžių ir socialinę bei ekonominę padėtį, kad sistemos rezultatai nebūtų iškreipti į siaurą sveikatos priežiūros vaizdą.

Ši įvairovė leidžia modeliams tiksliai veikti įvairiose populiacijose ir pagal klinikinius scenarijus, sumažinant šališkumo riziką ir užtikrinant, kad dirbtinis intelektas būtų saugus ir veiksmingas visiems.

Kl. Kodėl dirbtiniam intelektui sveikatos priežiūros srityje svarbūs žmonės?

A. Nors dirbtinis intelektas gali apdoroti didelius duomenų kiekius ir generuoti įžvalgas greičiu, kuris gerokai pranoksta žmogaus galimybes, jam trūksta niuansų supratimo apie sudėtingas medicinos koncepcijas, kurios yra neatsiejamos nuo aukštos kokybės priežiūros teikimo. Žmonių grandinėje esantys žmonės yra būtini dirbtiniam intelektui sveikatos priežiūros srityje, nes jie teikia klinikinę patirtį, priežiūrą ir kontekstą, būtiną siekiant užtikrinti, kad algoritmai veiktų tiksliai, saugiai ir etiškai.

Apsvarstykite vieną naudojimo atvejį, ty struktūrinių duomenų ištraukimą iš klinikinių pastabų, laboratorinių ataskaitų ir kitų sveikatos priežiūros dokumentų. Jei klinikų gydytojai nevadovauja kūrimui, mokymui ir nuolatiniam patvirtinimui, AI modeliai rizikuoja praleisti svarbią informaciją arba neteisingai interpretuoti medicininį žargoną, santrumpas ar kontekstui būdingus niuansus klinikinėje kalboje.

Pavyzdžiui, sistema gali neteisingai pažymėti simptomą kaip reikšmingą arba nepastebėti svarbios informacijos, įterptos į gydytojo pastabą. Žmonių ekspertai gali padėti sureguliuoti šiuos modelius, užtikrindami, kad jie teisingai užfiksuotų ir interpretuotų sudėtingą medicininę kalbą.

Žvelgiant iš darbo eigos perspektyvos, dirbantys žmonės gali padėti interpretuoti ir veikti pagal AI pagrįstas įžvalgas. Net kai dirbtinio intelekto sistemos sukuria tikslias prognozes, sveikatos priežiūros sprendimams dažnai reikia pritaikyti asmeninius poreikius, kuriuos gali suteikti tik gydytojai.

Žmonių ekspertai gali derinti dirbtinio intelekto rezultatus su savo klinikine patirtimi, žiniomis apie unikalias paciento aplinkybes ir platesnių sveikatos priežiūros tendencijų supratimu, kad priimtų pagrįstus, gailestingus sprendimus.

K. Kokia yra teisėkūros veiksmų padėtis siekiant nustatyti AI saugos standartus sveikatos priežiūros srityje ir ką turi padaryti įstatymų leidėjai?

A. Teisės aktai, nustatantys dirbtinio intelekto saugos standartus sveikatos priežiūros srityje, vis dar yra ankstyvosiose stadijose, nors vis labiau pripažįstama, kad reikia išsamių gairių ir reglamentų, užtikrinančių saugų ir etišką dirbtinio intelekto technologijų naudojimą klinikinėje aplinkoje.

Kelios šalys pradėjo diegti dirbtinio intelekto reguliavimo sistemas, kurių daugelis remiasi pagrindiniais patikimais dirbtinio intelekto principais, pabrėžiančiais saugumą, sąžiningumą, skaidrumą ir atskaitomybę, kurie pradeda formuoti šiuos pokalbius.

Jungtinėse Amerikos Valstijose Maisto ir vaistų administracija įvedė dirbtinio intelekto medicinos prietaisų, ypač programinės įrangos kaip medicinos prietaiso (SaMD), reguliavimo sistemą. FDA siūlomoje sistemoje laikomasi „viso produkto gyvavimo ciklo“ požiūrio, kuris suderinamas su patikimo dirbtinio intelekto principais, pabrėžiant nuolatinį AI veiklos stebėjimą, atnaujinimus ir vertinimą realiuoju laiku.

Tačiau, nors ši sistema skirta dirbtiniu intelektu valdomiems įrenginiams, ji dar nevisiškai atsižvelgė į iššūkius, kuriuos kelia ne įrenginių AI taikomosios programos, susijusios su sudėtingais klinikiniais duomenimis.

Praėjusį lapkritį Amerikos medicinos asociacija paskelbė siūlomas gaires, kaip naudoti dirbtinį intelektą etišku, teisingu, atsakingu ir skaidriu būdu.

Savo „Papildyto intelekto kūrimo, diegimo ir naudojimo principuose“ AMA patvirtina savo poziciją, kad dirbtinis intelektas stiprina žmogaus intelektą, o ne jį pakeičia, ir teigia, kad „svarbu, kad gydytojų bendruomenė padėtų kurti šias priemones taip, kad jos geriausiai atitiktų tiek gydytojų, tiek pacientų poreikius ir padeda apibrėžti jų pačių organizacijos rizikos toleranciją, ypač kai AI daro įtaką tiesioginei pacientų priežiūrai.

Skatindami šį bendradarbiavimą tarp politikos formuotojų, sveikatos priežiūros specialistų, dirbtinio intelekto kūrėjų ir etikos specialistų, galime sukurti reglamentus, skatinančius pacientų saugą ir technologijų pažangą. Įstatymų leidėjai turi rasti pusiausvyrą, sukurti aplinką, kurioje dirbtinio intelekto naujovės galėtų klestėti, kartu užtikrinant, kad šios technologijos atitiktų aukščiausius saugos ir etikos standartus.

Tai apima taisyklių, leidžiančių greitai prisitaikyti prie naujų dirbtinio intelekto pažangos, kūrimą, užtikrinant, kad dirbtinio intelekto sistemos išliktų lanksčios, skaidrios ir reaguotų į besikeičiančius sveikatos priežiūros poreikius.

Stebėkite Billo HIT aprėptį „LinkedIn“: Billas Siwickis
El. paštu: bsiwicki@himss.org
„Healthcare IT News“ yra HIMSS žiniasklaidos leidinys



Source link

Draugai: - Marketingo paslaugos - Teisinės konsultacijos - Skaidrių skenavimas - Fotofilmų kūrimas - Karščiausios naujienos - Ultragarsinis tyrimas - Saulius Narbutas - Įvaizdžio kūrimas - Veidoskaita - Nuotekų valymo įrenginiai -  Padelio treniruotės - Pranešimai spaudai -