本研究では、医学倫理教育のアプローチについて検討し(①)、LLMが倫理的な手本(②)や相談役(③)として有用な学習ツールとなる可能性を示しました。
また、医学教育におけるLLMの実用性を検討するために取り組むべき課題を整理しました(④)。
① ハイブリッドアプローチの重要性
② 倫理的な手本としてのLLM
③ 相談役としてのLLM
④ 検証すべき課題
1. 原則主義的な回答を行う傾向があるのなら、どのように態度的目標を達成するのか?
2. LLMの回答を、患者ケアの参考にする人はいるのか?
3. 徳や感情を持っていないLLMが、倫理的な手本になりうるか?
4. 更新の作業が必要なら、医学教育の役に立たないのではないか?
本研究は、以下の支援により実施しました。
本研究は、以下の支援により実施しました。
*1:LLM(Large Language Models、大規模言語モデル)
ChatGPTに代表される生成AIモデルの1つで、膨大な文章データを元に学習を行い、人間の会話や文章から単語の出現確率をモデル化する技術。単語の並びから言語のルールや文脈を学習し、人間が自然だと思う文章を生成したり、文章表現を分析したり、文章の翻訳や要約をしたりすることに用いられる。
*2:ファインチューニング
LLMに対する追加学習の1つ。事前学習を行ったLLMに対して、特定の課題や分野に特化した新たなデータを学習させるプロセス。
特定の分野のニーズに合わせてLLMをトレーニングできるため、より精度が高く、有用な情報を提供できるよう、カスタマイズすることができる。
*3:医療倫理の4原則
アメリカの倫理学者であるトム・ビーチャムとジェイムズ・チルドレスが提唱した4原則。自律性の尊重、無危害、善行、正義の4つからなる。
自律性の尊重:患者自身の決定や意思を大切にして、患者の行動を制限したり、干渉したりしないこと。
無危害:患者に危害を及ぼさないことや、今ある危害や危険を取り除き、予防すること。
善行:患者のために、患者の考える最善の善行を行うこと。
正義:患者を平等かつ公平に扱うこと。