AMA Journal of Ethics

, Author

Sztucznie inteligentny program komputerowy może teraz diagnozować raka skóry dokładniej niż dermatolog z certyfikatem.1 Co więcej, program może to robić szybciej i skuteczniej, wymagając zestawu danych szkoleniowych, a nie dekady kosztownej i pracochłonnej edukacji medycznej. Choć może się wydawać, że to tylko kwestia czasu, zanim lekarze staną się przestarzali dzięki tego typu technologii, bliższe przyjrzenie się roli, jaką ta technologia może odegrać w dostarczaniu opieki zdrowotnej, jest uzasadnione, aby docenić jej obecne mocne strony, ograniczenia i złożoność etyczną.

Sztuczna inteligencja (AI), która obejmuje dziedziny uczenia maszynowego, przetwarzania języka naturalnego i robotyki, może być stosowana w niemal każdej dziedzinie medycyny,2 a jej potencjalny wkład w badania biomedyczne, edukację medyczną i dostarczanie opieki zdrowotnej wydaje się nieograniczony. Dzięki dużej zdolności do integracji i uczenia się na podstawie dużych zbiorów danych klinicznych, AI może odgrywać rolę w diagnostyce,3 podejmowaniu decyzji klinicznych,4 i medycynie spersonalizowanej.5 Na przykład, algorytmy diagnostyczne oparte na AI zastosowane do mammogramów pomagają w wykrywaniu raka piersi, służąc jako „druga opinia” dla radiologów.6 Ponadto, zaawansowane wirtualne awatary ludzkie są w stanie angażować się w znaczące rozmowy, co ma wpływ na diagnostykę i leczenie chorób psychiatrycznych.7 Zastosowania AI rozciągają się również na sferę fizyczną z robotycznymi protezami, fizycznymi systemami wspomagania zadań i mobilnymi manipulatorami pomagającymi w dostarczaniu telemedycyny.8

Niemniej jednak, ta potężna technologia tworzy nowy zestaw wyzwań etycznych, które muszą być zidentyfikowane i złagodzone, ponieważ technologia AI ma ogromną zdolność do zagrożenia preferencji pacjenta, bezpieczeństwa i prywatności. Jednak obecna polityka i wytyczne etyczne dotyczące technologii AI pozostają w tyle za postępem, jaki AI poczyniła w dziedzinie opieki zdrowotnej. Chociaż pojawiły się pewne wysiłki mające na celu zaangażowanie się w te etyczne rozmowy,9-11 społeczność medyczna pozostaje niedoinformowana w zakresie etycznych zawiłości, które może wprowadzić powstająca technologia AI. W związku z tym czeka nas bogata dyskusja, która w znacznym stopniu skorzystałaby z wkładu lekarzy, ponieważ w najbliższej przyszłości lekarze prawdopodobnie będą wchodzić w interakcje z AI w swojej codziennej praktyce.

Ten tematyczny numer AMA Journal of Ethics ma na celu rozwiązanie niektórych dylematów etycznych, które pojawiają się, gdy technologia AI jest wykorzystywana w opiece zdrowotnej i edukacji medycznej. Niektóre z najbardziej palących problemów poruszonych w tym numerze obejmują rozwiązanie problemu dodatkowego ryzyka dla prywatności i poufności pacjenta, określenie granic pomiędzy rolą lekarza i maszyny w opiece nad pacjentem oraz dostosowanie edukacji przyszłych lekarzy, aby proaktywnie stawić czoła nadchodzącym zmianom w praktyce medycznej. Ponadto, dialog na temat tych problemów poprawi zrozumienie przez lekarzy i pacjentów roli, jaką AI może odegrać w opiece zdrowotnej, pomagając zainteresowanym stronom rozwinąć realistyczne poczucie tego, co AI może, a czego nie może zrobić. Wreszcie, przewidywanie potencjalnych pułapek etycznych, identyfikowanie możliwych rozwiązań i oferowanie zaleceń dotyczących polityki przyniesie korzyści zarówno lekarzom przyjmującym technologię AI do swojej praktyki, jak i pacjentom, którzy są pod ich opieką.

Jednym z głównych tematów poruszanych w tym wydaniu jest sposób równoważenia korzyści i zagrożeń związanych z technologią AI. Szybka integracja technologii AI z systemem opieki zdrowotnej jest korzystna, ponieważ AI stwarza możliwość poprawy efektywności świadczenia opieki zdrowotnej i jakości opieki nad pacjentem. Istnieje jednak potrzeba zminimalizowania ryzyka etycznego związanego z wdrożeniem AI – które może obejmować zagrożenia dla prywatności i poufności, świadomej zgody i autonomii pacjenta – oraz rozważenia, w jaki sposób AI ma być zintegrowana z praktyką kliniczną. Zainteresowane strony należy zachęcać do elastyczności we wprowadzaniu technologii AI, najprawdopodobniej jako narzędzia uzupełniającego, a nie zastępującego lekarza. W komentarzu do przypadku wdrożenia sztucznie inteligentnego algorytmu komputerowego do pracy lekarza Michael Anderson i Susan Leigh Anderson podkreślają znaczenie wiedzy technicznej użytkownika w interpretacji wyników badań prowadzonych przez AI oraz wskazują potencjalne dylematy etyczne. W podobnym przypadku, dotyczącym wykorzystania IBM WatsonTM jako narzędzia wspomagania decyzji klinicznych, David D. Luxton nakreśla korzyści, ograniczenia i środki ostrożności w stosowaniu takiego narzędzia. Ponadto, w badaniu empirycznym Irene Y. Chen, Peter Szolovits i Marzyeh Ghassemi wykazują, że algorytmy uczenia maszynowego mogą nie zapewniać równie dokładnych przewidywań wyników w zależności od rasy, płci lub statusu społeczno-ekonomicznego. Wreszcie, w odpowiedzi na przypadek, który rozważa wykorzystanie sztucznie inteligentnego robota podczas operacji, Daniel Schiff i Jason Borenstein potwierdzają znaczenie właściwej świadomej zgody i odpowiedzialnego wykorzystania technologii AI, podkreślając, że potencjalne szkody związane z wykorzystaniem technologii AI muszą być przejrzyste dla wszystkich zainteresowanych.

Drugi główny temat w tym wydaniu obraca się wokół roli, jaką AI może odegrać w edukacji medycznej, zarówno w przygotowaniu przyszłych lekarzy do kariery integrującej AI, jak i w bezpośrednim wykorzystaniu technologii AI w edukacji studentów medycyny. Steven A. Wartman i C. Donald Combs twierdzą, że biorąc pod uwagę rozwój AI, edukacja medyczna powinna zostać przeformułowana z nacisku na przypominanie wiedzy na szkolenie studentów do interakcji ze sztucznie inteligentnymi maszynami i zarządzania nimi; to przeformułowanie wymagałoby również starannego zwrócenia uwagi na etyczne i kliniczne złożoności, które pojawiają się wśród pacjentów, opiekunów i maszyn. W powiązanym artykule C. Donald Combs i P. Ford Combs badają wykorzystanie sztucznie inteligentnych, wirtualnych pacjentów (VP) w edukacji medycznej. Dzięki ich ekscytującym zastosowaniom w nauczaniu historii medycznej, takim jak psychiatryczna ocena przyjęć, VP oferują łatwo dostępną platformę z kilkoma korzyściami w porównaniu z tradycyjnymi standardowymi pacjentami; jednak wady i niedociągnięcia są równie ważne, podkreślając potrzebę jasności co do roli VPs w edukacji medycznej.

Ostatni temat poruszony w tym wydaniu wyjaśnia konflikty prawne i polityki zdrowotnej, które pojawiają się wraz z wykorzystaniem AI w opiece zdrowotnej. Hannah R. Sullivan i Scott J. Schweikart ujawniają kwestie prawne, takie jak błędy medyczne i odpowiedzialność za produkt, które pojawiają się w związku z wykorzystaniem algorytmów „czarnych skrzynek”, ponieważ użytkownicy nie mogą dostarczyć logicznego wyjaśnienia, w jaki sposób algorytm doszedł do danych wyjściowych. Dodatkowo, Nicole Martinez-Martin odkrywa lukę w polityce regulującej ochronę zdjęć pacjentów w odniesieniu do technologii rozpoznawania twarzy, co może zagrażać właściwej świadomej zgodzie, raportowaniu przypadkowych wyników i bezpieczeństwu danych. Wreszcie, Elliott Crigger i Christopher Khoury informują o niedawnym przyjęciu przez American Medical Association polityki dotyczącej AI w opiece zdrowotnej, która wzywa do opracowania przemyślanej, wysokiej jakości i klinicznie zatwierdzonej technologii AI, która może służyć jako prototypowa polityka dla systemu medycznego.

Nie ma wątpliwości, że AI będzie miało szerokie konsekwencje, które zrewolucjonizują praktykę medyczną, przekształcając doświadczenie pacjenta i codzienne rutyny lekarzy. Zastosowanie AI w opiece zdrowotnej może nawet rozszerzyć się na nieoczekiwane obszary, takie jak praktyka artystyczna, badana przez Sam Anderson-Ramos, z nowymi dylematami pojawiającymi się w związku z pojawieniem się myślących maszyn w dotychczas ludzkich działaniach. Ponadto Elisabeth Miller przedstawia wizualnie potencjalny wpływ AI na zmechanizowane ludzkie ciała. Niemniej jednak pozostaje jeszcze wiele do zrobienia, aby stworzyć odpowiednie podstawy etyczne dla bezpiecznego i efektywnego wykorzystania technologii AI w opiece zdrowotnej. Ten tematyczny numer czasopisma AMA Journal of Ethics ma na celu stworzenie takich podstaw poprzez dogłębne spojrzenie na wywołane przez AI zawiłości medycyny „czarnej skrzynki”, zbadanie prywatności i autonomii pacjenta, edukacji medycznej i nie tylko. Ostatecznie pacjenci nadal będą leczeni przez lekarzy bez względu na to, jak bardzo AI zmieni sposób świadczenia opieki, a w praktyce medycznej zawsze będzie obecny element ludzki.

  1. Esteva A, Kuprel B, Novoa RA, et al. Esteva A, Kuprel B, Novoa RA, et al. Dermatologist-level classification of skin cancer with deep neural networks. Nature. 2017;542(7639):115-118.
  2. Ramesh AN, Kambhampati C, Monson JRT, Drew PJ. Sztuczna inteligencja w medycynie. Ann R Coll Surg Engl. 2004;86(5):334-338.
  3. Amato F, López A, Peña-Méndez EM, Vaňhara P, Hampl A, Havel J. Artificial neural networks in medical diagnosis. J Appl Biomed. 2013;11(2):47-58.
  4. Bennett CC, Hauser K. Artificial intelligence framework for simulating clinical decision-making: a Markov decision process approach. Artif Intell Med. 2013;57(1):9-19.
  5. Dilsizian SE, Siegel EL. Artificial intelligence in medicine and cardiac imaging: harnessing big data and advanced computing to provide personalized medical diagnosis and treatment. Curr Cardiol Rep. 2014;16(1):441.

  6. Shiraishi J,, Li Q, Appelbaum D, Doi K. Computer-aided diagnosis and artificial intelligence in clinical imaging. Semin Nucl Med. 2011;41(6):449-462.
  7. Luxton DD. Sztuczna inteligencja w praktyce psychologicznej: obecne i przyszłe zastosowania oraz implikacje. Prof Psychol Res Pr. 2014;45(5):332-339.
  8. Riek LD. Robotyka w służbie zdrowia. Commun ACM. 2017;60(11):68-78.
  9. Luxton DD. Zalecenia dotyczące etycznego wykorzystania i projektowania sztucznych inteligentnych dostawców opieki. Artif Intell Med. 2014;62(1):1-10.
  10. Luxton DD. Artificial Intelligence in Behavioral and Mental Health Care. San Diego, CA: Elsevier Academic Press; 2016.

  11. Peek N, Combi C, Marin R, Bellazzi R. Thirty years of artificial intelligence in medicine (AIME) conferences: a review of research themes. Artif Intell Med. 2015;65(1):61-73.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.