AMA Journal of Ethics

, Author

人工知能コンピュータープログラムは、認定皮膚科医よりも正確に皮膚がんを診断できるようになりました1。さらに、高価で労働集約型の医学教育を10年間受ける代わりに、学習データセットを必要とし、より迅速かつ効率的に行うことができます。 この種のテクノロジーによって医師が時代遅れになるのは時間の問題だと思われるかもしれませんが、このテクノロジーがヘルスケアの提供において果たすことのできる役割を詳しく見て、現在の強み、限界、および倫理的複雑さを理解することが正当化されるのです。 例えば、マンモグラムに適用されたAIベースの診断アルゴリズムは、乳がんの発見を助け、放射線科医の「セカンドオピニオン」として機能しています6。また、高度な仮想人間アバターは意味のある会話をすることができ、精神疾患の診断や治療にも応用されています7。 8

しかしながら、AI技術は患者の好み、安全、およびプライバシーを脅かす多大な能力があるため、この強力な技術は、特定および緩和されなければならない一連の新しい倫理的課題を生み出します。 しかし,現在のAI技術に関する政策や倫理的ガイドラインは,AIが医療分野で成し遂げた進歩に遅れをとっている。 このような倫理的な会話に参加しようとする取り組みも出てきていますが、9-11、医療界は、芽生えつつあるAI技術がもたらす倫理的な複雑さについて、まだ十分に知らされていないのが現状です。 AMA Journal of Ethicsのこのテーマ号は、AI技術がヘルスケアや医学教育で使用される際に生じる倫理的ジレンマのいくつかに取り組むことを目的としている。 本号で提起された最も切実な懸念には、患者のプライバシーと守秘性に対する追加リスクへの対処、患者ケアにおける医師と機械の役割の境界の解析、医療行為における差し迫った変化に積極的に立ち向かうための将来の医師の教育の調整などがある。 さらに、これらの懸念に関する対話は、AIが医療に果たす役割に対する医師と患者の理解を深め、関係者がAIにできること、できないことの現実的な感覚を身につけるのに役立つだろう。 最後に、潜在的な倫理的落とし穴を予測し、可能な解決策を特定し、政策提言を行うことは、診療にAI技術を採用する医師や、そのケアを受ける患者にとって有益となる。

本号で扱う大きなテーマの一つは、AI技術のメリットとリスクのバランスをどう取るかである。 AIは医療提供の効率と患者ケアの質を向上させる機会をもたらすため、AI技術を医療システムに迅速に取り入れることにはメリットがある。 しかし、プライバシーや守秘義務、インフォームドコンセント、患者の自律性への脅威など、AI導入による倫理的リスクを最小限に抑え、AIを臨床にどのように統合するかを検討する必要がある。 関係者は、医師の代わりではなく、補完的なツールとして、AI技術を柔軟に取り入れるよう奨励されるべきです。 Michael AndersonとSusan Leigh Andersonは、医師のワークフローに人工知能コンピュータアルゴリズムを導入した事例に関する解説の中で、AIが誘導する検査結果の解釈におけるユーザーの技術的専門知識の重要性を強調し、潜在的な倫理的ジレンマを明らかにしている。 IBM WatsonTM の臨床的意思決定支援ツールとしての使用に関する同様の事例では、David D. Luxton が、そのようなツールを使用する際の利点、限界、注意点について概説している。 さらに、Irene Y. Chen、Peter Szolovits、Marzyeh Ghassemiは、実証研究において、機械学習アルゴリズムは、人種、性別、社会経済的状況によって、均等に正確な結果を予測することができない可能性を実証している。 最後に、Daniel Schiff氏とJason Borenstein氏は、手術中の人工知能ロボットの使用を検討した事例への対応として、適切なインフォームドコンセントとAI技術の責任ある使用の重要性を確認し、AI技術の使用に関する潜在的な害は、すべての関係者に透明でなければならないと強調している。 Steven A. WartmanとC. Donald Combsは、AIの台頭により、医学教育は知識の想起に焦点を当てたものから、人工知能を持つ機械と対話し管理する学生の訓練に焦点を当てたものに作り替えられるべきだと主張している。この作り替えには、患者、介護者、機械の間で生じる倫理と臨床の複雑さへの熱心な注意も必要となるだろう。 関連記事として、C. Donald Combs と P. Ford Combs は、医学教育における人工知能を持つ仮想患者(VP)の利用について研究している。 精神科の入院評価など、病歴聴取の教育におけるそのエキサイティングなアプリケーションにより、VPは従来の標準化された患者よりもいくつかの利点を持つ、容易にアクセスできるプラットフォームを提供する。しかし、欠点や短所も同様に重要であり、医学教育におけるVPの役割について明確にする必要性を強調する。

本号で扱う最後のテーマは、ヘルスケアにおけるAI使用で生じる法的および医療政策の対立を明確にする。 Hannah R. SullivanとScott J. Schweikartは、「ブラックボックス」アルゴリズムの使用によって生じる医療過誤や製造物責任などの法的問題を明らかにした。”ブラックボックス “アルゴリズムは、ユーザーがその与えられた出力に到達した方法についての論理的説明を提供できないからである。 さらに、Nicole Martinez-Martinは、顔認識技術に適用される患者の写真画像の保護を規定するポリシーのギャップを明らかにし、適切なインフォームドコンセント、付随的所見の報告、データの安全性を脅かす可能性があることを指摘しています。 最後に、Elliott Crigger氏とChristopher Khoury氏は、米国医師会が最近採択した医療におけるAIに関する政策について報告し、医療システムの原型となる、熟考された設計、高品質、かつ臨床的に検証されたAI技術の開発を求めています。

AIが医療行為を革新し、患者の経験や医師の日常業務を一変させるほどの影響を広く及ぼすことは間違いないでしょう。 医療における AIの使用は、Sam Anderson-Ramos が調査したように、芸術的実践のような予期せぬ分野にまで及ぶ可能性があり、以前は人間が追求していたことに思考マシンが台頭することによって新たなジレンマが生じます。 また、エリザベス・ミラーは、機械化された人間の身体にAIが与える潜在的な影響を視覚的に表現しています。 しかし、AI技術を安全かつ効果的に医療に活用するための適切な倫理的基盤を構築するために、やるべきことはたくさんあります。 AMA Journal of Ethicsの本テーマ号では、AIが引き起こす複雑なブラックボックス医療について深く考察し、患者のプライバシーと自律性、医療教育などを探求することで、そのような基盤を提供することを意図している。 最終的には、AIがケアの提供をどれほど変えたとしても、患者は医師によって治療され、医療の実践には常に人間の要素があるのです」

  1. Esteva A, Kuprel B, Novoa RA, et al. Esteva A, Kuprel B, Novoa RA, et al. Dermatologist-level classification of skin cancer with deep neural networks. ネイチャー. 2017;542(7639):115-118.
  2. Ramesh AN, Kambhampati C, Monson JRT, Drew PJ. 医療における人工知能。 Ann R Coll Surg Engl. 2004;86(5):334-338.
  3. Amato F, López A, Peña-Méndez EM, Vaňhara P, Hampl A, Havel J. Artificial Neural Network in Medical Diagnosis. J Appl Biomed. 2013;11(2):47-58.
  4. Bennett CC, Hauser K. Artificial Intelligence framework for simulating clinical decision-making: a Markov decision process approach.「臨床的意思決定のシミュレーションのための人工知能フレームワーク」. アーティフ・インテル・メッド. 2013;57(1):9-19.
  5. Dilsizian SE, Siegel EL. 医学と心臓画像診断における人工知能:ビッグデータと高度なコンピューティングを活用し、パーソナライズされた医療診断と治療を提供する。 Curr Cardiol Rep. 2014;16(1):441.

  6. Shiraishi J,,, Li Q, Appelbaum D, Doi K. Computer-aided diagnosis and artificial intelligence in clinical imaging.日本学術振興会特別研究員(DCI). Semin Nucl Med. 2011;41(6):449-462.
  7. ラクストンDD. 心理臨床における人工知能:現在と将来の応用と意味合い. Prof Psychol Res Pr. 2014;45(5):332-339に掲載されました。
  8. リエックLD. ヘルスケアロボティクス. コミュニケーションACM. 2017;60(11):68-78.
  9. Luxton DD. 人工知能ケアプロバイダーの倫理的な使用と設計のための推奨事項。 Artif Intell Med. 2014;62(1):1-10.
  10. Luxton DD. 行動療法とメンタルヘルスケアにおける人工知能. サンディエゴ、カリフォルニア州。 Elsevier Academic Press; 2016.

  11. Peek N, Combi C, Marin R, Bellazzi R. Thirty years of artificial intelligence in medicine (AIME) conferences: a review of research themes.医学における人工知能の30年. Artif Intell Med. 2015;65(1):61-73.

コメントを残す

メールアドレスが公開されることはありません。