はじめに
Microsoftは、Copilot Actionsのような実験的な機能を通じてWindowsにエージェントAI機能を導入するにあたり、セキュリティ上の重要な懸念について警鐘を鳴らしています。同社は、AIエージェントが動作するための分離された環境を確立する新たな「エージェントワークスペース」機能のプライベートプレビューを展開していますが、これらの自律システムがもたらす新たなサイバーセキュリティ上の脅威について透明性を持って説明しています。
エージェントワークスペースの概要
エージェントワークスペースは、ユーザーがWindows上でAIと対話する方法における大きな変化を意味します。従来アプリを実行するのではなく、エージェントはユーザー自身の個人アカウントとは異なる、専用のアカウントを持つ分離されたセッションで動作します。このアーキテクチャアプローチにより、ランタイム分離とスコープ化された認証が可能になり、ユーザーが作業を続ける間、エージェントがバックグラウンドでタスクを完了できるようになります。実験的なエージェント機能の設定は、管理者が有効にする必要があり、ドキュメント、ダウンロード、デスクトップ、ミュージック、ピクチャ、ビデオといった一般的に使用されるフォルダへのアクセスを提供する専用のエージェントアカウントとワークスペースを作成します。
新たなセキュリティ課題
この分離は一定の隔離を提供しますが、Microsoftは、エージェントAIアプリケーションが従来のソフトウェアでは遭遇しなかった新たなセキュリティリスクに直面することを認識しています。Microsoftが強調する最も懸念される脆弱性の一つは、クロスプロンプトインジェクション攻撃(XPIA)です。これらの攻撃では、ユーザーインターフェース要素やドキュメントに埋め込まれた悪意のあるコンテンツが、エージェントの指示を上書きし、データ流出やマルウェアのインストールといった予期せぬ結果につながる可能性があります。これは従来のサイバーセキュリティ脅威とは根本的に異なる攻撃ベクトルであり、これらのエージェントを強力にする「推論能力」を悪用します。さらに、AIモデルは依然として機能的な限界に直面しており、時には「ハルシネーション」を起こし、予期せぬ出力を生成することがあります。これらの行動の一貫性のなさは、エージェントがユーザーのデバイス上のファイルやアプリケーションに自律的にアクセスする際に、セキュリティリスクを増幅させます。
Microsoftのセキュリティ対策
これらの懸念に対処するため、Microsoftは、以下の3つの主要なコミットメントを中心としたセキュリティ原則を実装しています。
- 非否認性:すべてのエージェントのアクションは、ユーザーのアクションと区別でき、改ざん防止の監査ログ機能を持つ必要があります。
- 機密性:エージェントは最小権限の原則に基づいて動作するように制限され、それらを起動するユーザーの権限を超えることはできず、管理者権限は明示的に禁止されています。
- 認証:きめ細かく、時間制限のあるアクセス制御が実装されています。エージェントは、特定のアプリケーションやウェブサイトと対話する際など、ユーザーが承認した特定のコンテキストでのみ機密情報にアクセスできます。管理エンティティでさえ、アカウント所有者を超えてエージェントに特別なアクセス権を得ることはできません。
段階的な展開と継続的な進化
Microsoftは、より広範な提供の前にフィードバックを収集するため、限定的なプレビューアクセスから開始するという意図的に慎重なアプローチを採用しています。同社は、エージェントAIコンテキストにおけるセキュリティが一度限りの機能ではなく、機能が成熟するにつれて進化する継続的なコミットメントであることを認識しています。エージェントワークスペースは現在、Windows Sandboxのような完全な仮想マシンソリューションよりも効率的でありながら、セキュリティ隔離と並列実行機能を提供します。初期のプレビューリリースは、エージェントAIが根本的に新しいセキュリティフロンティアであるというMicrosoftの認識を反映しています。同社は、Secure Future Initiativeの一環として、これらの課題に対処するためにセキュリティ研究パートナーシップに積極的に参加しています。実験的なエージェント機能の設定はデフォルトで無効になっており、有効にするには管理者権限が必要です。Microsoftは、エージェント機能を有効にする前に、ユーザーがセキュリティ上の影響を慎重に確認することを推奨しています。この機能は、一般提供に向けてよりきめ細かなセキュリティとプライバシー制御を追加する前に、ユーザーフィードバックを収集するために特にプレビュー段階にあります。エージェントAI機能が主流になるにつれて、Microsoftのセキュリティリスクに対する透明なアプローチは、自律AIシステムの慎重で原則に基づいた開発に対する業界の必要性を示しています。
