AIチャットアプリから3億件のメッセージが流出、2500万人以上に影響

AIチャットアプリから大規模なデータ漏洩が発覚

人気のモバイルアプリケーション「Chat & Ask AI」において、大規模なデータ漏洩が発生しました。この事態により、約3億件ものプライベートメッセージが外部からアクセス可能な状態となり、2500万人以上のユーザーに影響を及ぼしています。

漏洩の詳細:原因と影響範囲

この脆弱性は、独立系のセキュリティ研究者であるHarry氏によって発見され、404 Mediaに報告されました。調査の結果、今回の漏洩は巧妙なサイバー攻撃によるものではなく、アプリが利用しているGoogle Firebaseの「単純な設定ミス」が原因であることが判明しました。Firebaseはデフォルトで安全ですが、開発者が適切なアクセスルールを設定していなかったため、基本的な技術知識を持つ者であれば誰でも「認証済み」ユーザーとしてバックエンドストレージにアクセスできる状態になっていました。

漏洩したデータの規模は膨大で、Harry氏は何百万ものユーザーの完全なチャット履歴にアクセスできたと報告しています。公開されたファイルには、タイムスタンプ、ユーザー設定、選択されたAIモデル(ChatGPT、Claude、Geminiなど)、そしてユーザーがチャットボットに割り当てた名前などが含まれていました。アプリのユーザー数は5000万人以上とされていますが、Harry氏が調査した6万人のユーザーと100万件のメッセージのサンプル分析から、少なくとも半数のユーザーが影響を受けていることが確認されました。

漏洩メッセージの深刻な内容と潜在的リスク

漏洩したメッセージの内容は、AIとのインタラクションの機密性の高さを浮き彫りにしています。ユーザーはAIチャットボットを個人的な相談相手として扱い、深く個人的な質問や、時には危険な内容を含む問い合わせをしていました。流出したログからは、以下のような内容が確認されています。

  • 自殺をほのめかすメッセージ
  • 苦痛を伴わない自傷行為の方法に関する問い合わせ
  • メタンフェタミン製造やハッキングソフトウェアに関する指示など、違法行為の助けを求める内容

この事件は、「ラッパー」アプリ、すなわちOpenAIやGoogleなどの主要なAIモデルのユーザーインターフェースを提供するサードパーティ製アプリが、元のAIモデル提供企業が持つような堅牢なセキュリティインフラを欠いている場合があることを示しています。

開発者とユーザーへの教訓

今回のデータ漏洩は、開発者とユーザー双方にとって重要な教訓となります。開発者には、特に個人データを扱う場合、クラウドストレージの権限を厳格に管理し、定期的なセキュリティ監査を実施することが強く求められます。またユーザーに対しては、サードパーティのAIラッパーアプリに機密情報を共有するリスクを認識し、利便性と引き換えに自身のデータがどこまで安全であるかを慎重に検討する必要があることを改めて示唆しています。


元記事: https://gbhackers.com/ai-chat-platform-leaks-300-million-messages/