AMA Journal of Ethics

, Author

Tekoälykäs tietokoneohjelma voi nyt diagnosoida ihosyövän tarkemmin kuin laillistettu ihotautilääkäri.1 Vielä parempi on se, että ohjelma voi tehdä sen nopeammin ja tehokkaammin, sillä se tarvitsee koulutustietoaineiston vuosikymmenen kalliin ja työvoimavaltaisen lääketieteellisen koulutuksen sijasta. Vaikka saattaa vaikuttaa siltä, että on vain ajan kysymys, milloin tämäntyyppinen teknologia tekee lääkärit tarpeettomiksi, on perusteltua tarkastella lähemmin, millainen rooli tällä teknologialla voi olla terveydenhuollossa, jotta voidaan arvioida sen nykyisiä vahvuuksia, rajoituksia ja eettisiä ongelmia.

Tekoälyä (AI), johon kuuluvat koneoppiminen, luonnollisen kielen prosessointi ja robotiikka, voidaan soveltaa melkein millä tahansa lääketieteen osa-alueella2 , ja sen potentiaalinen panos biolääketieteellisessä tutkimuksessa, lääketieteellisessä koulutuksessa ja terveydenhuollossa vaikuttaa rajattomalta. Koska tekoälyllä on vankka kyky integroida ja oppia suurista kliinisistä tietokokonaisuuksista, sillä voi olla merkitystä diagnosoinnissa,3 kliinisessä päätöksenteossa,4 ja yksilöllisessä lääketieteessä.5 Esimerkiksi mammografioihin sovelletut tekoälyyn perustuvat diagnoosialgoritmit auttavat rintasyövän havaitsemisessa ja toimivat ”toisena mielipiteenä” radiologeille.6 Lisäksi kehittyneet virtuaaliset ihmisavattaret kykenevät käymään mielekkäitä keskusteluja, millä on merkitystä psykiatristen sairauksien diagnosoinnissa ja hoidossa.7 Tekoälysovellukset ulottuvat myös fyysiseen maailmaan: robottiproteesit, fyysisten tehtävien tukijärjestelmät ja liikkuvat manipulaattorit auttavat telelääketieteen tarjoamisessa.8

Tämä tehokas teknologia luo kuitenkin uudenlaisia eettisiä haasteita, jotka on tunnistettava ja ratkaistava, sillä tekoälyteknologialla on valtavat mahdollisuudet uhata potilaiden mieltymyksiä, turvallisuutta ja yksityisyyttä. Nykyiset tekoälyteknologiaa koskevat poliittiset ja eettiset suuntaviivat ovat kuitenkin jäljessä siitä edistyksestä, jota tekoäly on saavuttanut terveydenhuollon alalla. Vaikka näitä eettisiä keskusteluja on jo jonkin verran pyritty käymään,9-11 lääketieteellinen yhteisö on edelleen huonosti perillä niistä eettisistä ongelmista, joita orastava tekoälyteknologia voi tuoda mukanaan. Näin ollen odotettavissa on rikas keskustelu, joka hyötyisi suuresti lääkäreiden panoksesta, sillä lääkärit ovat todennäköisesti tekoälyn kanssa tekoälyn kanssa tekemisissä jokapäiväisessä käytännössään lähitulevaisuudessa.

Tässä AMA Journal of Ethics -lehden teemanumerossa pyritään käsittelemään joitakin eettisiä ongelmia, joita syntyy, kun tekoälyteknologiaa käytetään terveydenhuollossa ja lääketieteellisessä koulutuksessa. Joitakin tässä numerossa esiin nostettuja kiireellisimpiä huolenaiheita ovat muun muassa potilaiden yksityisyyteen ja luottamuksellisuuteen kohdistuvan lisäriskin käsitteleminen, lääkärin ja koneen roolin välisten rajojen hahmottaminen potilaan hoidossa sekä tulevien lääkäreiden koulutuksen mukauttaminen siten, että he voivat ennakoivasti kohdata lääketieteen harjoittamisen välittömät muutokset. Lisäksi näistä huolenaiheista käytävä vuoropuhelu parantaa lääkäreiden ja potilaiden ymmärrystä siitä, millainen rooli tekoälyllä voi olla terveydenhuollossa, ja auttaa sidosryhmiä kehittämään realistisen käsityksen siitä, mitä tekoäly voi tehdä ja mitä se ei voi tehdä. Mahdollisten eettisten sudenkuoppien ennakoiminen, mahdollisten ratkaisujen tunnistaminen ja poliittisten suositusten antaminen hyödyttävät sekä lääkäreitä, jotka ottavat tekoälyteknologian käyttöön omassa käytännössään, että potilaita, jotka saavat heidän hoitojaan.

Yksi tämän numeron tärkeimmistä aiheista on se, miten tekoälyteknologian hyötyjä ja riskejä voidaan tasapainottaa. Tekoälyteknologian nopeasta integroimisesta terveydenhuoltojärjestelmään on hyötyä, sillä tekoäly tarjoaa mahdollisuuden parantaa terveydenhuollon toimittamisen tehokkuutta ja potilaiden hoidon laatua. On kuitenkin tarpeen minimoida tekoälyn käyttöönoton eettiset riskit – joita voivat olla uhat yksityisyydelle ja luottamuksellisuudelle, tietoon perustuvalle suostumukselle ja potilaan itsemääräämisoikeudelle – ja pohtia, miten tekoäly sisällytetään kliiniseen käytäntöön. Sidosryhmiä olisi kannustettava olemaan joustavia tekoälyteknologian sisällyttämisessä, todennäköisimmin täydentävänä välineenä eikä lääkärin korvaajana. Michael Anderson ja Susan Leigh Anderson korostavat kommentissaan tapauksesta, jossa tekoälyä hyödyntävä tietokonealgoritmi on sisällytetty lääkärin työnkulkuun, käyttäjien teknisen asiantuntemuksen merkitystä tekoälyn ohjaamien testitulosten tulkinnassa ja tunnistavat mahdollisia eettisiä ongelmia. Samankaltaisessa tapauksessa, joka koskee IBM WatsonTM:n käyttöä kliinisen päätöksenteon tukivälineenä, David D. Luxton hahmottelee hyötyjä, rajoituksia ja varotoimia tällaisen välineen käytössä. Lisäksi Irene Y. Chen, Peter Szolovits ja Marzyeh Ghassemi osoittavat empiirisessä tutkimuksessa, että koneoppimisalgoritmit eivät välttämättä anna yhtä tarkkoja ennusteita tuloksista rodun, sukupuolen tai sosioekonomisen aseman mukaan. Lopuksi Daniel Schiff ja Jason Borenstein vastaavat tapaukseen, jossa pohditaan tekoälyrobotin käyttöä leikkauksen aikana, ja vahvistavat asianmukaisen tietoon perustuvan suostumuksen ja tekoälyteknologian vastuullisen käytön merkityksen ja korostavat, että tekoälyteknologian käyttöön liittyvien mahdollisten haittojen on oltava läpinäkyviä kaikille asianosaisille.

Tämän numeron toinen pääteema koskee tekoälyteknologian roolia lääketieteellisessä koulutuksessa sekä tulevien lääkäreiden valmistautumisessa tekoälyä hyödyntävään uraan että tekoälyteknologian suorassa hyödyntämisessä lääketieteen opiskelijoiden koulutuksessa. Steven A. Wartman ja C. Donald Combs väittävät, että tekoälyn yleistymisen vuoksi lääketieteen koulutus olisi muotoiltava uudelleen siten, että siinä ei keskityttäisi enää tiedon muistamiseen vaan opiskelijoiden kouluttamiseen vuorovaikutukseen tekoälykoneiden kanssa ja niiden hallintaan; tämä uudelleenmuotoilu edellyttäisi myös huolellista huomiota eettisiin ja kliinisiin ongelmakohtiin, joita syntyy potilaiden, hoitajien ja koneiden välille. Aiheeseen liittyvässä artikkelissa C. Donald Combs ja P. Ford Combs tutkivat keinotekoisesti älykkäiden virtuaalipotilaiden käyttöä lääketieteellisessä koulutuksessa. VP:t tarjoavat jännittäviä sovelluksia lääketieteellisen anamneesin ottamisen opetuksessa, kuten psykiatrisessa arvioinnissa, ja ne tarjoavat helposti saatavilla olevan alustan, jolla on useita etuja perinteisiin standardoituihin potilaisiin verrattuna; haitat ja puutteet ovat kuitenkin yhtä tärkeitä, mikä korostaa tarvetta selventää VP:iden roolia lääketieteellisessä koulutuksessa.

Viimeisessä tässä numerossa käsitellyssä teemassa selvitetään oikeudellisia ja terveyspoliittisia ristiriitoja, joita syntyy tekoälyn käytön yhteydessä terveydenhuollossa. Hannah R. Sullivan ja Scott J. Schweikart paljastavat oikeudellisia kysymyksiä, kuten hoitovirheitä ja tuotevastuuta, joita syntyy ”mustan laatikon” algoritmien käytön yhteydessä, koska käyttäjät eivät voi antaa loogista selitystä siitä, miten algoritmi on päätynyt tiettyyn tulokseen. Lisäksi Nicole Martinez-Martin paljastaa poliittisen aukon, joka koskee potilasvalokuvien suojelua kasvontunnistusteknologian yhteydessä, mikä voi uhata asianmukaista tietoon perustuvaa suostumusta, satunnaislöydösten raportointia ja tietoturvaa. Lopuksi Elliott Crigger ja Christopher Khoury raportoivat American Medical Associationin hiljattain hyväksymästä tekoälyä terveydenhuollossa koskevasta politiikasta, jossa kehotetaan kehittämään harkitusti suunniteltua, laadukasta ja kliinisesti validoitua tekoälyteknologiaa, joka voi toimia prototyyppipolitiikkana terveydenhuoltojärjestelmässä.

Ei ole epäilystäkään siitä, että tekoälyllä tulee olemaan laajalle levinneitä seurauksia, jotka mullistavat lääketieteen harjoittamisen, muuttavat potilaskokemuksen ja lääkäreiden päivittäiset rutiinit. Tekoälyn käyttö terveydenhuollossa voi ulottua jopa odottamattomille aloille, kuten taiteen harjoittamiseen, kuten Sam Anderson-Ramos on tutkinut, ja ajattelevien koneiden noususta aiemmin inhimillisten harrastusten pariin voi syntyä uusia dilemmoja. Lisäksi Elisabeth Miller kuvaa visuaalisesti tekoälyn mahdollisia vaikutuksia koneistettuihin ihmiskehoihin. On kuitenkin vielä paljon tehtävää, jotta voidaan luoda asianmukainen eettinen perusta tekoälyteknologian turvalliselle ja tehokkaalle käytölle terveydenhuollossa. AMA Journal of Ethics -lehden tämän teemanumeron tarkoituksena on luoda tällainen perusta, jossa tarkastellaan perusteellisesti tekoälyn aiheuttamia monimutkaisia kysymyksiä mustan laatikon lääketieteessä, tutkitaan potilaiden yksityisyyttä ja itsemääräämisoikeutta, lääketieteellistä koulutusta ja paljon muuta. Viime kädessä potilaita hoitavat edelleen lääkärit riippumatta siitä, kuinka paljon tekoäly muuttaa hoidon antamista, ja lääketieteen harjoittamisessa tulee aina olemaan inhimillinen elementti.

  1. Esteva A, Kuprel B, Novoa RA, et al. Esteva A, Kuprel B, Novoa RA, et al. Dermatologist-level classification of skin cancer with deep neural networks. Nature. 2017;542(7639):115-118.
  2. Ramesh AN, Kambhampati C, Monson JRT, Drew PJ. Tekoäly lääketieteessä. Ann R Coll Surg Engl. 2004;86(5):334-338.
  3. Amato F, López A, Peña-Méndez EM, Vaňhara P, Hampl A, Havel J. Artificial neural networks in medical diagnosis. J Appl Biomed. 2013;11(2):47-58.
  4. Bennett CC, Hauser K. Artificial intelligence framework for simulation clinical decision-making: a Markov decision process approach. Artif Intell Med. 2013;57(1):9-19.
  5. Dilsizian SE, Siegel EL. Tekoäly lääketieteessä ja sydämen kuvantamisessa: Big datan ja kehittyneen tietojenkäsittelyn valjastaminen yksilöllisen lääketieteellisen diagnoosin ja hoidon tarjoamiseksi. Curr Cardiol Rep. 2014;16(1):441.

  6. Shiraishi J,, Li Q, Appelbaum D, Doi K. Computer-aided diagnosis and artificial intelligence in clinical imaging. Semin Nucl Med. 2011;41(6):449-462.
  7. Luxton DD. Tekoäly psykologisessa käytännössä: nykyiset ja tulevat sovellukset ja vaikutukset. Prof Psychol Res Pr. 2014;45(5):332-339.
  8. Riek LD. Terveydenhuollon robotiikka. Commun ACM. 2017;60(11):68-78.
  9. Luxton DD. Suosituksia keinotekoisten älykkäiden hoitorobottien eettiseen käyttöön ja suunnitteluun. Artif Intell Med. 2014;62(1):1-10.
  10. Luxton DD. Artificial Intelligence in Behavioral and Mental Health Care. San Diego, CA: Elsevier Academic Press; 2016.

  11. Peek N, Combi C, Marin R, Bellazzi R. Thirty years of artificial intelligence in medicine (AIME) conferences: a review of research themes. Artif Intell Med. 2015;65(1):61-73.

Vastaa

Sähköpostiosoitettasi ei julkaista.