AIチャットボットの光と影:患者向けツールの現状
ChatGPT Healthの登場は、医療AIの議論を再燃させています。iMeritでAIヘルスケアリーダーを務める外科医、シーナ・バリ医師は、ChatGPTが誤った医療情報を提供し、患者を誤った方向に導く可能性を実際に経験しています。バリ医師が処方した薬について、患者がChatGPTの誤った情報(「肺塞栓症のリスクが45%」という、結核患者の特殊なケースからの誤用)を提示した事例を挙げています。
しかし、バリ医師はOpenAIが「ChatGPT Health」を発表した際には期待を抱いたと述べています。これは、ユーザーのメッセージがAIモデルの訓練データとして使用されない、よりプライベートな環境で健康に関する相談ができるサービスです。バリ医師は、「すでに起きていることを正式なものにし、患者情報を保護し、セーフガードを設けることで、患者にとってさらに強力なツールになるだろう」と評価しています。
一方で、セキュリティ上の懸念も浮上しています。データ損失防止企業MINDの共同創設者、イタイ・シュワルツ氏は、患者が医療記録をアップロードしたり、Apple HealthやMyFitnessPalといったアプリと同期したりすることで、「HIPAA(医療保険の携行性と説明責任に関する法律)に準拠した組織から、非準拠のベンダーへ医療データが転送される」という「赤信号」を指摘しており、規制当局の対応に注目が集まっています。
AIチャットボットの「幻覚」(事実ではない情報を生成する問題)は、医療分野においては特に敏感な課題です。Vectaraの評価モデルによると、OpenAIのGPT-5はGoogleやAnthropicの多くのモデルよりも幻覚を起こしやすいとされています。にもかかわらず、AI企業は医療分野の非効率性を是正する可能性を見出しています。
医師の負担軽減と患者アクセス向上へのAI活用
スタンフォード大学医学部教授で、スタンフォード・ヘルスケアの最高データサイエンティストであるニガム・シャー医師は、米国の患者がケアにアクセスできない現状の方が、ChatGPTの誤ったアドバイスよりも緊急性の高い問題だと考えています。彼は、「現在、どの医療システムに行っても、かかりつけ医に会うまでの待ち時間は3ヶ月から6ヶ月です。本物の医師を6ヶ月待つか、医師ではないが、ある程度のことができるものと話すか、どちらを選びますか?」と問いかけます。
シャー医師は、AIを医療システムに導入するより明確な道は、患者側ではなく医療提供者側にあると考えています。医療雑誌の報告によると、医師の時間の約半分が事務作業に費やされており、これが診察できる患者数を減らしています。こうした作業を自動化できれば、医師はより多くの患者を診ることができ、患者が医師の追加的な助言なしにChatGPT Healthのようなツールに頼る必要性を減らせるかもしれません。
シャー医師のチームは、電子カルテ(EHR)システムに組み込まれたソフトウェア「ChatEHR」を開発しています。これにより、臨床医は患者の医療記録をより効率的かつ合理的に操作できるようになります。早期テスターの一人であるスネハ・ジェイン医師は、「電子カルテをより使いやすくすることで、医師は情報を探し回る時間を減らし、患者との対話や問題の特定という、より重要なことに時間を費やせるようになる」と述べています。
Anthropicもまた、一般向けのClaudeチャットボットだけでなく、臨床医や保険会社向けのAI製品に取り組んでいます。今週、Anthropicは「Claude for Healthcare」を発表し、保険会社への事前承認申請のような煩雑な事務作業にかかる時間を削減できる可能性を説明しました。AnthropicのCPOであるマイク・クリーガー氏は、J.P.モルガン・ヘルスケア・コンファレンスでのプレゼンテーションで、「毎週何百、何千もの事前承認ケースを処理する方もいます。それぞれから20分、30分を削減できると想像してみてください。これは劇的な時間短縮です」と語りました。
テクノロジーと医療の倫理的緊張
AIと医療が密接になるにつれて、両者の間には避けられない緊張関係が存在します。医師の主な動機は患者を助けることですが、テクノロジー企業はたとえその意図が崇高であっても、最終的には株主に対して責任を負います。バリ医師は、「この緊張は重要なものです。患者は私たちに、彼らを保護するために懐疑的で保守的であることを期待しています」と述べ、患者保護の視点の重要性を強調しています。
