ChatGPTのApple Health連携に重大な欠陥、健康診断の信頼性に疑問符

はじめに:AIによる健康診断の落とし穴

OpenAIのChatGPTが新たに提供を開始したApple Healthとの連携機能について、The Washington Postの記者が検証した結果、その診断精度と一貫性に重大な問題が浮上しました。AIが健康データに基づいて個人の健康状態を評価するというこの革新的な機能は、現在ベータ版として一部ユーザーに提供されていますが、その信頼性には疑問符が投げかけられています。

検証結果:記者の心臓健康は「F」評価

記者のジェフリー・ファウラー氏は、自身の過去10年間のApple Watchの健康データ(2,900万歩、600万回の心拍数測定)をChatGPT Healthに提供し、自身の心臓健康を評価するよう求めました。驚くべきことに、ChatGPTはファウラー氏の心臓健康を「F」評価としました。

専門家からの強い懸念

このAIの評価に対し、ファウラー氏のかかりつけ医はAIの診断を完全に否定し、ファウラー氏が心臓疾患のリスクが低いと断言しました。スクリプス研究所の心臓専門医エリック・トポル氏も、ChatGPTの分析を「根拠のないもの」と一蹴し、「人々はこのAIの医療アドバイスを無視すべきだ。実用化には程遠い」と強く警告しています。

一貫性の欠如と情報保持の失敗

さらに深刻な問題として、ファウラー氏が同じ質問を複数回行ったところ、ChatGPTの評価は「F」から「B」へと大きく変動しました。また、AIは彼の性別や年齢といった基本的な個人情報ですら、記録への完全なアクセスがあるにもかかわらず、繰り返し忘れるという現象が見られました。

Anthropic社のClaudeチャットボットも同様のテストを受けましたが、「C」評価と、わずかに良い結果だったものの、Apple Watchデータの限界を適切に考慮できていなかったと報じられています。

企業と規制当局の視点

OpenAIとAnthropicの両社は、彼らの健康ツールが医師の代わりとなるものではなく、診断を提供するものでもないと主張しています。しかしトポル氏は、もしこれらのボットが健康データを正確に評価できないのであれば、そもそも評価を下すべきではないと指摘しています。

米国食品医薬品局(FDA)は、イノベーションを促進するために「規制当局としての役割から外れる」と述べていますが、AIがFDAの審査なしに「医療または臨床上の主張」を行うことには一線を引いています。ChatGPTとClaudeは「情報を提供しているだけだ」と主張していますが、トポル氏は「人々は自身の健康について本当に不安になるかもしれないし、逆に健康でない人々がすべてうまくいっているという誤った安心感を持つ可能性もある」と懸念を表明しています。

今後の展望

ChatGPTのApple Health統合は現在、限定されたベータユーザーグループ向けに提供されています。OpenAIは、今回の報告を受けて「チャットボットの回答の一貫性を向上させるために取り組んでいる」とコメントしており、「待機リスト制の導入により、広く利用可能にする前に経験を学び、改善することができる」と説明しています。


元記事: https://www.macrumors.com/2026/01/27/chatgpt-apple-health-integration-flaws/