【研究成果】大規模言語モデル(LLM)を活用した医学倫理教育の可能性
―倫理的な行動の手本や相談役としての機能を検討―

プレスリリース図_日本語

【本研究成果のポイント】

  • 医学教育では、人的・財的資源の制約から、倫理教育が十分とは言えません。本研究では、この問題への対策として、医学倫理教育においてAIモデルの一種であるLLM(Large Language Models、大規模言語モデル)*1が有用な学習ツールとなる可能性を提示しました。
  • 医学倫理を学ぶうえで、医療に必要なルールや原則に関する知識の獲得だけでなく、患者や医療現場ごとに生じる複雑な倫理的ジレンマに対応するための態度や徳を身につけることが重要です。本論文では、知識の獲得と、態度や徳を身につける教育の双方を取り入れたハイブリッドアプローチの必要性を指摘しました
  • LLMに対して、医療倫理に特化した追加学習(ファインチューニング*2)を行うことで、医学倫理教育においてLLMを倫理的な手本や相談役として活用する可能性を提示しました。利用者とLLMとの反復的な対話を通じて利用者の意識やLLMの情報の偏り(バイアス)を減らし、より公正でしっかりした医療倫理の枠組みを構築することができると考えられます。

【概要】

  • 広島大学大学院人間社会科学研究科上廣応用倫理学講座の片岡雅知 寄附講座准教授、ならびに同研究科の澤井努 特定教授(寄附講座教授兼務、京都大学 高等研究院ヒト生物学高等研究拠点 連携研究者、シンガポール国立大学客員教授)は、広島大学大学院人間社会科学研究科の岡本慎平 助教、板野誠 博士課程大学院生とともにLLMを活用した医学倫理教育の可能性を検討しました。
  • 本研究成果は、2025年2月5日に学術誌「BMC Medical Education」でオンライン公開されました。

【論文情報】

  • 題目:AI-based medical ethics education: examining the potential of large language models as a tool for virtue cultivation
  • 著者:Shimpei Okamoto1, Masanori Kataoka1,2, Makoto Itano1, Tsutomu Sawai1,2,3,4*
    1. 広島大学大学院人間社会科学研究科
    2. 広島大学大学院人間社会科学研究科上廣応用倫理学講座
    3. 京都大学高等研究院ヒト生物学高等研究拠点(WPI-ASHBi)
    4. Yong Loo Lin School of Medicine, National University of Singapore, Singapore, Singapore.
    *: 責任著者
  • 雑誌:BMC Medical Education
  • URL:https://bmcmededuc.biomedcentral.com/articles/10.1186/s12909-025-06801-y
  • DOI:https://doi.org/10.1016/j.tibtech.2024.09.001

【背景】

  • 現在の医学教育カリキュラムでは倫理教育が十分とは言い難く、医学生や研修医が臨床現場で倫理的に複雑な状況に直面した際、対応に苦慮することが報告されています。
  • このような問題への理想的な対処法として、専門的な教育を受けた倫理指導者の雇用や、医学教育カリキュラムの改善が求められます。しかし、人的・財的資源の制約から、こうした対処は困難であり、医学倫理教育の充実が進まない状況が続いています。
  • こうした背景を踏まえ、次善の策としてLLMを教育ツールとして活用することが考えられます。医療分野に特化した学習を行ったLLMに対し、対応に苦慮するケースの情報を入力することで、手本となりうる対応策や、患者ケアにおいて考慮すべき情報を得ることができます。
  • LLMを倫理的な手本や相談役として活用することで、人的・財的資源を抑えながら、道徳的知識や患者ケアに必要な姿勢の獲得を促す可能性があります。

【研究成果の内容】

 本研究では、医学倫理教育のアプローチについて検討し(①)、LLMが倫理的な手本(②)や相談役(③)として有用な学習ツールとなる可能性を示しました。
 また、医学教育におけるLLMの実用性を検討するために取り組むべき課題を整理しました(④)。

①    ハイブリッドアプローチの重要性

  • 医学倫理教育においては、2つの教育アプローチが存在します。
  • 原則主義的アプローチは、医療倫理の4原則*3のように、医療に必要なルールや原則に関する知識を獲得するという、認知的目標の達成を目的としています。
  • 一方で、非原則主義的アプローチは、個別の患者が抱える状況を認識・判断し、倫理的価値に基づいて行動するための態度と徳を育み、身に着ける態度的目標の達成を目的としています。
  • 医療の現場において、適切な倫理的意思決定を行うためには、2つのアプローチを組み合わせたハイブリッドアプローチを取り入れ、医療に必要なルールや原則に対する十分な知識と、患者ケアに不可欠な徳や態度を獲得する必要があります。

②    倫理的な手本としてのLLM

  • 私たちは、倫理的な手本となるような人物の行動を真似することによって、徳や態度を身に着けることができます。
  • 同様に、歴史上の人物や架空のキャラクターなど、目の前に実在しない存在を手本として倫理的な原則を理解し、その行動を真似することで、徳や態度を身に着けることもあります。実際に、教育の現場では文学や映画などの作品を通して、複雑な倫理的ジレンマを理解したり、共感や道徳的態度を身に着けたりする試みがなされています。
  • 目の前に存在しない人物や架空のキャラクターを真似することで徳や態度を身に着けることができるのであれば、私たちはLLMの示した回答やシナリオを通して倫理的行動の手本を認識し、それらを真似することで徳や態度を身に着けることが出来るかもしれません。

③    相談役としてのLLM

  • LLMの回答は、あくまでも助言として活用されるべきであり、絶対に正しいものであるかのように扱うべきではありません。
  • LLMの提示した回答の結論だけでなく、その回答が導き出された過程や参照している情報源を検討し、どの部分が手本として参照するに値するか、値しないかを判断する必要があります。
  • また、ファインチューニングを行っていないLLMは、原則主義的な回答を行う傾向にあることが指摘されています。徳倫理やフェミニスト倫理など、他の考え方が示された場合に、初めてそうした考え方を反映した回答を出力することが確認されています。
  • 原則主義的な考え方のみに基づいて教育を行うと、LLMの利用者が患者一人一人の状況に対応できない、不適切な考え方や行動を身に着けてしまう可能性があります。
  • そのため、専門家や教育機関によるフィードバックを得ながら、より適切な回答を出力できるようファインチューニングを行って、LLMの情報を更新していく必要があります。

④    検証すべき課題
1.    原則主義的な回答を行う傾向があるのなら、どのように態度的目標を達成するのか?

  • LLMによる原則主義的な回答の傾向は、ハイブリッドアプローチに組み込むことで、解消することが出来ます。利用者は、非原則主義的な観点からLLMの回答を批判的に検討することで、相手に対する共感や適切な態度について考えることができます。
  • 特定のシナリオにおいて、人間の気づかない感情の動きをLLMが認識するという研究結果も示されていることから、LLMが活用できる場面を見極めながら教育の現場に組み込むことで、教師の負担を部分的に削減したり、新たな気付きを与えたりする可能性があります。

2.    LLMの回答を、患者ケアの参考にする人はいるのか?

  • LLMが共感や配慮といった複雑な感情を理解できないのではないかという理由から、LLMの回答をアドバイスとして取り入れたり、LLMが提供した手本となる行動の例を真似したりするに値しないのではないかという懐疑的な意見もあります。
  • しかし、「推論」に対する判断を行う課題においては、作成者が人間であっても、LLMであっても、アドバイスとして採用する際に影響は生じないという研究結果が示されています。
  • 認知的要素である推論と、態度的要素である徳や態度では結果が異なる可能性もあるため、今後、実証的な実験によって、相談役としてのLLMの実用性を検討する必要があります。

3.    徳や感情を持っていないLLMが、倫理的な手本になりうるか?

  • 文学作品や映画作品の多くは、作者と直接対話を行うことができない環境で鑑賞されています。物語の作者のことを知らずとも、物語のキャラクターを手本として徳を育み、身に着けることができるのであれば、LLMが感情の機微に欠けており、倫理的な態度や徳を有していないとしても、出力されたシナリオや回答を手本とすることができる可能性はあります。
  • 倫理的手本としてのLLMの実用性は、作成者の情報や手本とする存在の実在など、様々な条件を考慮したうえで、教育的実験を通じて実証的に検証される必要があります。

4.    更新の作業が必要なら、医学教育の役に立たないのではないか?

  • 人間と人間のコミュニケーションにおいても、世代間で価値観に相違が生じるなど、バイアスが表面化することがあります。たとえば、ワークライフバランスの取れた生活を求めるといった価値観は、世代間で異なった受け取られ方をするかもしれません。
  • このように、徳や価値観が時代や文化によって変化することを教師も認識しなければなりません。
  • LLMと人間の教師による教育を組み合わせることによって、学生と教師の対話、徳や価値観に対する批判的反省、相互学習の機会の場を促進することができるかもしれません。
  • LLMと利用者のバイアスを認識し、取り除くという更新の作業は、人的なリソースを必要としますが、最終的にはより公正でしっかりした医療倫理の枠組みを構築することに繋がる可能性があります。

【今後の展開】

  • LLMを医学倫理教育で活用するためには、実用性を測定するための実証的な検証が必要です。
  • 人間の教育者が割く時間の増加を抑えつつ、より高品質な教育を実現するため、LLMと教育者の協力関係の構築について、検討を進めることが望まれます。
  • より実用的な回答を出力するために、専門家や教育機関によるフィードバックを得ながら、LLMのファインチューニングを進めていくことが求められます。

【謝辞】

本研究は、以下の支援により実施しました。

  • 本研究は、以下の支援により実施しました。

    • 日本学術振興会(JSPS)科学研究費助成事業 若手研究 「経験的生命倫理学における方法論の構築とその応用」21K12908 (研究代表者:澤井努)
    • 上廣倫理財団論文投稿助成[UEHIRO2023-0116]
       

【用語解説】

*1:LLM(Large Language Models、大規模言語モデル)
ChatGPTに代表される生成AIモデルの1つで、膨大な文章データを元に学習を行い、人間の会話や文章から単語の出現確率をモデル化する技術。単語の並びから言語のルールや文脈を学習し、人間が自然だと思う文章を生成したり、文章表現を分析したり、文章の翻訳や要約をしたりすることに用いられる。

*2:ファインチューニング
LLMに対する追加学習の1つ。事前学習を行ったLLMに対して、特定の課題や分野に特化した新たなデータを学習させるプロセス。
特定の分野のニーズに合わせてLLMをトレーニングできるため、より精度が高く、有用な情報を提供できるよう、カスタマイズすることができる。

*3:医療倫理の4原則
アメリカの倫理学者であるトム・ビーチャムとジェイムズ・チルドレスが提唱した4原則。自律性の尊重、無危害、善行、正義の4つからなる。
自律性の尊重:患者自身の決定や意思を大切にして、患者の行動を制限したり、干渉したりしないこと。
無危害:患者に危害を及ぼさないことや、今ある危害や危険を取り除き、予防すること。
善行:患者のために、患者の考える最善の善行を行うこと。
正義:患者を平等かつ公平に扱うこと。

広島大学 大学院人間社会科学研究科

上廣応用倫理学講座

〒739-8521

東広島市鏡山1丁目7番1号 総合科学部A棟401号室

上部へスクロール