Et kunstigt intelligent computerprogram kan nu diagnosticere hudkræft mere nøjagtigt end en dermatolog.1 Endnu bedre, programmet kan gøre det hurtigere og mere effektivt, idet det kræver et sæt træningsdata i stedet for et årti af dyr og arbejdskrævende medicinsk uddannelse. Selv om det kan se ud til, at det kun er et spørgsmål om tid, før læger bliver overflødige af denne type teknologi, er det berettiget at se nærmere på den rolle, som denne teknologi kan spille i forbindelse med levering af sundhedspleje, for at forstå dens nuværende styrker, begrænsninger og etiske kompleksitet.
Kunstig intelligens (AI), som omfatter områderne maskinlæring, behandling af naturligt sprog og robotteknologi, kan anvendes på næsten alle områder inden for medicin,2 og dens potentielle bidrag til biomedicinsk forskning, medicinsk uddannelse og levering af sundhedspleje synes ubegrænsede. Med sin robuste evne til at integrere og lære af store mængder af kliniske data kan kunstig intelligens spille en rolle i forbindelse med diagnosticering3 , klinisk beslutningstagning4 og personlig medicin.5 For eksempel hjælper AI-baserede diagnostiske algoritmer, der anvendes på mammografier, med at opdage brystkræft og fungerer som en “second opinion” for radiologer.6 Desuden er avancerede virtuelle menneskelige avatarer i stand til at indgå i meningsfulde samtaler, hvilket har betydning for diagnosticering og behandling af psykiatriske sygdomme.7 AI-applikationer strækker sig også ind i det fysiske område med robotproteser, fysiske opgaveunderstøttelsessystemer og mobile manipulatorer, der hjælper med at levere telemedicin.8
Nuvel, denne kraftfulde teknologi skaber et nyt sæt etiske udfordringer, som skal identificeres og afbødes, da AI-teknologi har en enorm evne til at true patienternes præferencer, sikkerhed og privatliv. De nuværende politiske og etiske retningslinjer for AI-teknologi er imidlertid bagud i forhold til de fremskridt, som AI har gjort inden for sundhedssektoren. Selv om der er opstået nogle bestræbelser på at indlede disse etiske samtaler9-11 , er det medicinske samfund fortsat dårligt informeret om de etiske kompleksiteter, som den spirende AI-teknologi kan medføre. Derfor venter der en rig diskussion, som i høj grad ville have gavn af lægernes input, da læger sandsynligvis vil få kontakt med AI i deres daglige praksis i den nærmeste fremtid.
Dette temanummer af AMA Journal of Ethics har til formål at tage fat på nogle af de etiske dilemmaer, der opstår, når AI-teknologi anvendes inden for sundhedspleje og medicinsk uddannelse. Nogle af de mest presserende spørgsmål, der rejses i dette nummer, omfatter håndtering af den øgede risiko for patienternes privatliv og fortrolighed, udredningen af grænserne mellem lægens og maskinens rolle i patientplejen og tilpasning af uddannelsen af fremtidige læger til proaktivt at imødegå de forestående ændringer i lægepraksis. Desuden vil en dialog om disse spørgsmål forbedre lægernes og patienternes forståelse af den rolle, som AI kan spille i sundhedsvæsenet, og hjælpe interessenterne med at udvikle en realistisk fornemmelse af, hvad AI kan og ikke kan gøre. Endelig vil det at foregribe potentielle etiske faldgruber, identificere mulige løsninger og give politiske anbefalinger være til gavn for læger, der indfører AI-teknologi i deres praksis, såvel som for de patienter, der modtager deres pleje.
Et af de vigtigste temaer, der skal behandles i dette nummer, er, hvordan man kan afbalancere fordelene og risiciene ved AI-teknologi. Der er fordele ved hurtigt at integrere AI-teknologi i sundhedsvæsenet, da AI giver mulighed for at forbedre effektiviteten af sundhedsydelserne og kvaliteten af patientbehandlingen. Der er imidlertid behov for at minimere de etiske risici ved implementering af AI – som kan omfatte trusler mod privatlivets fred og fortrolighed, informeret samtykke og patienternes autonomi – og for at overveje, hvordan AI skal integreres i klinisk praksis. Interessenterne bør opfordres til at være fleksible med hensyn til at indarbejde AI-teknologi, sandsynligvis som et supplerende værktøj og ikke som en erstatning for en læge. I deres kommentar til en sag om implementering af en kunstigt intelligent computeralgoritme i en læges arbejdsgang understreger Michael Anderson og Susan Leigh Anderson betydningen af brugernes tekniske ekspertise i forbindelse med fortolkning af AI-vejledte testresultater og identificerer potentielle etiske dilemmaer. I en lignende sag om brugen af IBM WatsonTM som et klinisk beslutningsstøtteværktøj skitserer David D. Luxton fordele, begrænsninger og forsigtighedsregler i forbindelse med brugen af et sådant værktøj. Desuden viser Irene Y. Chen, Peter Szolovits og Marzyeh Ghassemi i en empirisk undersøgelse, at maskinlæringsalgoritmer muligvis ikke giver lige nøjagtige forudsigelser af resultater på tværs af race, køn eller socioøkonomisk status. Endelig bekræfter Daniel Schiff og Jason Borenstein i deres svar på en sag, der omhandler brugen af en kunstigt intelligent robot under en operation, vigtigheden af korrekt informeret samtykke og ansvarlig brug af AI-teknologi og understreger, at de potentielle skader i forbindelse med brugen af AI-teknologi skal være gennemsigtige for alle involverede.
Et andet stort tema i dette nummer drejer sig om den rolle, som AI kan spille i lægeuddannelsen, både når det gælder om at forberede fremtidige læger på en karriere, der integrerer AI, og når det gælder om direkte at bruge AI-teknologi i uddannelsen af medicinstuderende. Steven A. Wartman og C. Donald Combs hævder, at i lyset af AI’s fremvækst bør lægeuddannelsen omformuleres fra et fokus på vidensindsamling til et fokus på at træne de studerende i at interagere med og håndtere kunstigt intelligente maskiner; denne omformulering ville også kræve omhyggelig opmærksomhed på de etiske og kliniske kompleksiteter, der opstår mellem patienter, plejere og maskiner. I en relateret artikel undersøger C. Donald Combs og P. Ford Combs brugen af kunstigt intelligente, virtuelle patienter (VP’er) i medicinsk uddannelse. Med deres spændende anvendelser i undervisning i medicinsk anamneseoptagelse, f.eks. i psykiatrisk indlæggelsesvurdering, tilbyder VP’er en lettilgængelig platform med flere fordele i forhold til traditionelle standardiserede patienter; ulemperne og manglerne er dog lige så vigtige, hvilket understreger behovet for klarhed om VP’ers rolle i medicinsk uddannelse.
Et sidste tema, der behandles i dette nummer, belyser de juridiske og sundhedspolitiske konflikter, der opstår i forbindelse med brugen af AI i sundhedsvæsenet. Hannah R. Sullivan og Scott J. Schweikart afdækker juridiske spørgsmål som f.eks. lægelig fejlbehandling og produktansvar, der opstår ved brug af “black-box”-algoritmer, fordi brugerne ikke kan give en logisk forklaring på, hvordan algoritmen er nået frem til det givne resultat. Desuden afdækker Nicole Martinez-Martin et politisk tomrum med hensyn til beskyttelse af patientfotografiske billeder i forbindelse med ansigtsgenkendelsesteknologi, hvilket kan true et korrekt informeret samtykke, rapportering af tilfældige fund og datasikkerhed. Endelig beretter Elliott Crigger og Christopher Khoury om American Medical Association’s nylige vedtagelse af en politik om AI i sundhedsvæsenet, som opfordrer til udvikling af gennemtænkt designet, høj kvalitet og klinisk valideret AI-teknologi, der kan tjene som en prototypisk politik for det medicinske system.
Der er ingen tvivl om, at AI vil få omfattende forgreninger, der revolutionerer den medicinske praksis og ændrer patientoplevelsen og lægernes daglige rutiner. Brugen af AI i sundhedsvæsenet kan endda strække sig ind på uventede områder som f.eks. kunstnerisk praksis, som undersøgt af Sam Anderson-Ramos, hvor nye dilemmaer opstår som følge af de tænkende maskiners fremkomst i tidligere menneskelige aktiviteter. Derudover skildrer Elisabeth Miller visuelt den potentielle indvirkning af kunstig intelligens på mekaniserede menneskekroppe. Ikke desto mindre er der meget arbejde at gøre for at skabe det rette etiske grundlag for en sikker og effektiv anvendelse af AI-teknologi i sundhedsvæsenet. Dette temanummer af AMA Journal of Ethics har til hensigt at tilvejebringe et sådant fundament med en dybdegående gennemgang af de AI-inducerede kompleksiteter i forbindelse med black-box-medicin, hvor man udforsker patienternes privatliv og autonomi, medicinsk uddannelse og meget mere. I sidste ende vil patienterne stadig blive behandlet af læger, uanset hvor meget AI ændrer leveringen af pleje, og der vil altid være et menneskeligt element i udøvelsen af medicin.
- Esteva A, Kuprel B, Novoa RA, et al. Esteva A, Kuprel B, Novoa RA, et al. Dermatologist-level classification of skin cancer with deep neural networks. Nature. 2017;542(7639):115-118.
- Ramesh AN, Kambhampati C, Monson JRT, Drew PJ. Kunstig intelligens inden for medicin. Ann R Coll Surg Engl. 2004;86(5):334-338.
- Amato F, López A, Peña-Méndez EM, Vaňhara P, Hampl A, Havel J. Artificial neural networks in medical diagnosis. J Appl Biomed. 2013;11(2):47-58.
- Bennett CC, Hauser K. Artificial intelligence framework for simulering af klinisk beslutningstagning: a Markov decision process approach. Artif Intell Med. 2013;57(1):9-19.
-
Dilsizian SE, Siegel EL. Kunstig intelligens inden for medicin og kardiologisk billeddannelse: udnyttelse af store data og avanceret databehandling til at levere personlig medicinsk diagnose og behandling. Curr Cardiol Rep. 2014;16(1):441.
- Shiraishi J,,, Li Q, Appelbaum D, Doi K. Computerstøttet diagnose og kunstig intelligens i klinisk billeddannelse. Semin Nucl Med. 2011;41(6):449-462.
- Luxton DD. Kunstig intelligens i psykologisk praksis: nuværende og fremtidige anvendelser og konsekvenser. Prof Psychol Res Pr. 2014;45(5):332-339.
- Riek LD. Robotteknologi i sundhedssektoren. Commun ACM. 2017;60(11):68-78.
- Luxton DD. Anbefalinger til etisk brug og design af kunstige intelligente plejeleverandører. Artif Intell Med. 2014;62(1):1-10.
-
Luxton DD. Kunstig intelligens i adfærdsmæssig og psykisk sundhedspleje. San Diego, CA: Elsevier Academic Press; 2016.
- Peek N, Combi C, Marin R, Bellazzi R. Thirty years of artificial intelligence in medicine (AIME) conferences: a review of research themes. Artif Intell Med. 2015;65(1):61-73.