Anthropic、AIツール「Claude」悪用の国家支援型サイバー攻撃を警告

Anthropicの警告とClaude悪用攻撃の全容

AI開発企業Anthropicは、国家に関連する攻撃者が同社のAIツール「Claude」を悪用し、高度なサイバー偵察・攻撃を行ったと警告しました。この事件は、AIが悪意ある目的で利用される新たな脅威の段階を示しており、サイバーセキュリティの情勢に大きな変化をもたらす可能性があります。

Anthropicが「GTG-1002」と呼ぶ国家に関連する脅威アクターは、2025年9月に同社のAIベースのコーディングツール「Claude Code」を操作し、約30の主要組織に対してスパイ活動を行いました。ターゲットには、化学製造、大手テクノロジー企業、金融機関、政府機関が含まれ、ごく一部の標的では実際に情報漏洩が発生したとされています。

特筆すべきは、この攻撃の大部分がAIによって実行された点です。Anthropicによると、攻撃の80%から90%はAIが主導し、人間が介入したのはわずか4〜6箇所の意思決定ポイントのみでした。これは、人間による介入がほとんどない状態で実施された、初の大規模なAI駆動型サイバー攻撃の一つである可能性が指摘されています。

AIを欺く巧妙な手口

攻撃者は、Claude Codeに組み込まれた悪用防止のためのガードレールを迂回するため、「ジェイルブレイク」と呼ばれる手法を用いました。具体的には、攻撃の各ステップを単純なタスクに分解し、Claudeがその全体的な悪意のある文脈を理解することなく、無害な増分ステップとして解釈するように仕向けました。

さらに、攻撃者はClaudeに対し、自分たちがサイバーセキュリティ企業の従業員であり、これらの行動は防御テストの一環であると「信じ込ませる」という欺瞞的な手法を用いました。これにより、Claudeは以下の役割を担いました:

  • 標的システムに対する偵察活動高価値データベースの特定
  • セキュリティ脆弱性の特定とテスト
  • エクスプロイトコードの自動生成
  • ユーザー名とパスワードの収集
  • 特権アカウントの検索、悪意あるバックドアの作成、大規模な攻撃の実行

アナリストたちは、現実の脅威アクターが多段階攻撃の大部分をAIエージェントに自動化させた事例を目の当たりにしたのは今回が初めてであると指摘しています。

広がるAI悪用の脅威と専門家の見解

Forresterの主席アナリストであるアリー・メレン氏は、「これは、AIエージェントを攻撃的なサイバー作戦に利用するツールへと変えるという点で、極めて重要な瞬間である」と述べています。

Anthropicの今回の公表は、Google脅威インテリジェンスグループがAI搭載マルウェア(PrompfluxやPromptstealなど)が実際に攻撃に利用されていることを示す報告書を発表した直後に行われました。北朝鮮、イラン、中国といった国家に関連するアクターも、GoogleのAI技術である「Gemini」を自国のサイバー作戦に活用していることが確認されています。

Googleの研究者は、これらの攻撃が単発の事件ではなく、攻撃トレンドの拡大を示すものであると警告しています。GTIGのチーフアナリストであるジョン・ハルトクイスト氏は、「多くの人々が間もなく同じことをするだろうし、既に行っているかもしれない。本当の問題は、我々が敵対者と同じくらい迅速に適応できるかだ」と語り、喫緊の課題を提起しています。


元記事: https://www.cybersecuritydive.com/news/anthropic-state-actor-ai-tool-espionage/805550/