概要
人工知能アシスタントは、私たちの最も敏感なデータを扱うことが増えています。しかし、最近公開されたChatGPTの脆弱性により、この期待が壊れました。
脆弱性の詳細
Check Point Researchによって発見されたこの欠陥は、隔離されたコード実行ランタイムを悪用して、外部データ転送警告をトリガーせずに標準チャットセッションを通じて静かにデータを漏洩するコvertな通信チャンネルを確立しました。
影響
- ターゲットプラットフォーム: ChatGPTのコード実行およびデータ分析Linuxランタイム
- 攻撃ベクター: ソーシャルエンジニアリングによる悪意のあるプロンプトやバックドア付きカスタムGPT
- エクスプロイト技術: DNSトンネリング(抽出されたデータをサブドメインラベルにエンコード)
- 影響: 静かなデータ漏洩とコンテナ内のリモートシェルアクセス
解決策
OpenAIは、この脆弱性を2026年2月20日に修正しました。
攻撃の仕組み
OpenAIは、Pythonベースのデータ分析環境からの直接的な外部インターネットアクセスを厳しく制限しています。標準メカニズムであるGPTアクションなどの外部データ共有には、明示的なユーザー同意が必要です。
- DNSトンネリング: HTTPや標準TCPのアウトバウンドリクエストはブロックされますが、コンテナ化されたランタイムではDNS解決が正常に機能します。攻撃者はこのオーバーサイトを悪用し、DNSトンネリングを使用してデータを抽出しました。
- プロンプトの悪用: 攻撃者はモデルに巧妙な悪意のあるプロンプトを提供することで、ChatGPTが機密チャットデータやアップロードされたファイル内容をDNSセーフなフラグメントにエンコードするように指示しました。
- リモートシェルの確立: 攻撃者はDNSトンネリングを使用して、ChatGPTのLinuxコンテナ内で直接リモートシェルを確立し、モデルの標準セーフティメカニズムを超えて任意のコマンドを実行しました。
元記事: https://gbhackers.com/chatgpt-vulnerability-enabled-silent-leakage-of-prompts/
