概要
Anthropicは、中国の主要な3つのAI研究機関であるDeepSeek、Moonshot、MiniMaxが実施した大規模なデータ抽出キャンペーンを特定し、公開しました。これらの組織は約24,000件の偽造アカウントを使用して、AnthropicのClaudeモデルと1600万以上の取引を行いました。
目的と手法
これらのキャンペーンの主な目標は「抽出」技術を用いて、より強力なAIモデルから高品質な出力を学習させることでした。これは通常、小さな効率的なモデルを作成するために正当な方法ですが、これらの非公式なキャンペーンは利用規約を違反し、地域アクセス制限を迂回して、標準開発コストと時間の一部に過ぎない価値で高度な機能を不法に取得しました。
大規模な抽出キャンペーン
Anthropicの調査によると、これらのキャンペーンはランダムなスクラッピングイベントではなく、Claudeから特定の認知能力(コード作成、複雑な推論、ツール使用など)を盗むために精密に計画されたオペレーションでした。
- DeepSeek: 理解力パターンの抽出と「思考チェーン」データ生成に焦点を当てました。
- Moonshot AI: 代理的推論、コーディング、データ分析、コンピュータビジョン能力を標的としました。
- MiniMax: 最大のトラフィック量を占め、コード作成とツール統合に重点を置きました。単独で1300万以上の取引を行いました。
攻撃手法とセキュリティ上の影響
これらの研究所は、「ハイドラクラスター」と呼ばれる商用プロキシサービスを使用して攻撃を実施しました。これにより、クラウドプラットフォーム全体に分散されたトラフィックが生成され、単一の障害点がないことが保証されます。
これらの不法抽出モデルは、元の西側モデルに組み込まれている安全対策を削除した状態で作成されるため、国家安全保障上のリスクをもたらします。これは、外国のアクターがこれらの強力なAIシステムを使用してサイバー攻撃や大規模監視を行うことを可能にする可能性があります。
Anthropicの対応
Anthropicは新しい行動パターン検出システムを導入し、教育機関とスタートアップ向けの認証プロセスを強化しています。同社は、この脅威に対処するためには、グローバルなAIコミュニティや政策立案者による連携が必要であると強調しています。
