
最近(2022-2025)の英語論文
1.2022 Article Title: Higher Awareness of the Need for the Education in Medical Mediation Practitioners in Hospitals in Japan
Toshimi Nakanishi1*, Yoshihiro Sugiura2, Masaharu Nohgawa3, Kenshin Sasaki4 and Misa Sekikawa4
Journal: J Clin Res Med, Volume 5(6): 1-4, 2022
Keywords: Medical mediation, Necessity, Awareness, Education, Practitioner
日本の病院における医療メディエーション実務者のメディエーション教育の必要性に対する意識の高さ
抄録
日本の医療事故紛争を解決するためには、患者とその家族の医療従事者に対する否定的感情を克服することが重要である。この問題に対処するため、紛争解決のための医療メディエーションモデルが開発され、研修が行われてきた。しかし、研修修了者が医療現場でこのモデルをどのように受け止めているかは研究されていない。そこで、この点について調査を行った。日本全国から同意を得た50名の参加者に、13の質問に答えてもらった。各項目は、1(全く必要ない)から10(必要不可欠)の10段階で評価した。
同時に、医療メディエーションを実践しているかどうかも尋ねた。実践していると回答した群を「実践している」群(n=28)、実践していないと回答した群を「実践していない」群(n=21)に分け、 Wilcoxon 検定を用いて評価点を比較した。質問2(医療斡旋教育の満足度)では、P群4.68(平均)±2.29(標準偏差)に対し、Pなし群3.24±1.81と有意差があった。その他の項目では、両群とも6点以上であった。P群で得点が高く、有意差のあった項目は6項目であった。それらは、インフォームド・コンセントの支援、認知的紛争解決、調停教育の必要性であった。
調停教育の必要性であった。以上の結果から、医療あっせんの実践者と非実践者では、医療あっせんに対する認識に違いがあることが示された。また、医療あっせん教育の必要性も推察された。本研究は、継続的な医療メディエーション教育を行うことにより、医療メディエーションの質を確保する必要性を示唆している。
2.2023 Article Title: How does the Language Prediction Model, the ChatGPT Evaluate Negative Emotions?
Journal: J Clin Res Med, Volume 6(3): 1ー4, 2023
Impact Factor: 2.89
ISSN: 2690-4861 DOI link: https://doi.org/10.31038/JCRM.2023634
要旨
生成AI(Artificial Intelligence: AI)であるChatGPT(Generative Pretrained Transformer: ChatGPT)は、単語の出現頻度や相互関係に基づいて文章を生成する言語予測モデルである。本研究では、医療現場で遭遇する医療従事者と患者・家族の認知的葛藤(コンフリクト)において、生成型AIであるChatGPTがどのように機能するかを、負の感情に関する限界や誤情報を伝えるとされる認可医療メディエーション(共同意思決定あり)の対話記録を用いて評価した。ChatGPTのネガティブ感情評価について、人間の評価と比較しながら検討した結果を報告する。
医療現場で遭遇する医療者と患者・家族の認知的齟齬(葛藤)の語りの中で、生成AIであるChatGPT(Ver.3.5)がどのようにネガティブ感情を評価するかを調査した。その結果、ChatGPTによるネガティブ感情評価は、人が行うレベルには達していなかった。現時点では、ChatGPTによるネガティブ感情評価には限界があると推察される。
3.2025 Article Title: Assessing the Accuracy of AI in Understanding Medical Complaints: An Evaluation of Expert Medical Mediator
Toshimi Nakanishi*, Tatsuya Hayasaka, Shinya Sato, Kaneyuki Kawamae, Yukimi Narita, Eri Endo, Mayumi Matsuoka, Naoya Koshi
Journal: Journal of Internal Medicine and Health Affairs Medires Publishing LLC, USA
Impact Factor:1.5-2.0
https://www.mediresonline.org/article/assessing-the-accuracy-of-ai-in-understanding-medical-complaints-an-evaluation-of-expert-medical-mediator
要旨
本研究は、自然言語処理を用いた人工知能(AI)モデルが、医療クレームをどの程度理解し対応できるかを調査した。本研究は、Cohere社のモデルCommand Rを用いて、インターネットから遮断された環境で実施された。患者の死亡9件を含む51件の医療クレームのデータセットが分析された。AIモデルは、各クレームに対して、患者の根底にある願望や意図に具体的に対応した簡潔な回答を生成することを課された。AIが生成した回答は、事実、感情、要求、懸念の4つの次元にわたって、3人の専門家によって独立して評価された。 医療メディエ―タ―は、回答を独立して評価した。評価は5段階のリッカート尺度に基づいて行われ、4または5の評価は 「現場で使える内容 」であることを示した。AIが生成した回答の一致率(合意率)は0.60であった。要求と関心(インタレスト)の相関係数は0.8567であった。事実評価と感情評価から、AIには課題があることが示唆された。「要求」と「関心(インタレスト)」の間には強い相関が見られ(相関係数:0.8567)、AI
モデルが患者のこれらの側面を効果的に捉えていることが示唆された。
しかし、「事実 」と 「感情 」の評価では、患者とのコミュニケーションにおけるこれらの重要な要素を正確に識別・解釈するAIの能力に限界があることが明らかになった。これらの結果から、AIを医療クレームの解決に効果的に適用するには、特に用語と感情知能の分野でさらなる開発が必要であることが示唆された。