概要
Microsoftは、組織が高度なAIシステムを重要なワークフローに導入する中で、新たなセキュリティ保護策を発表しました。この新しいセットのセキュリティ保護は、Azure AI Foundry上でホストされる生成型AIモデルを保護することを目指しています。
背景
生成型AIの能力が急速に進化する中で、新しいモデルが頻繁にリリースされ、信頼性、データセキュリティ、サプライチェーンリスクに関する懸念が高まっています。Microsoftは、イノベーションとともにセキュリティも進化させる必要があると強調しています。
ゼロトラストアーキテクチャ
Azure AI Foundry上で動作するすべてのAIモデルは、ゼロトラストアーキテクチャ内で動作します。これは、モデルがAzure仮想マシン(VM)として扱われ、厳格な隔離と継続的な検証が行われることを意味します。
データプライバシーへの対応
企業がAIを導入する際の重要な懸念は、顧客データの取り扱いです。Microsoftは、顧客データを使用して共有モデルをトレーニングすることはなく、サードパーティのモデルプロバイダーには露出しないと再確認しました。
セキュリティ保護策
Azure AI Foundryで公開される高視認性AIモデルに対しては、マルウェア分析や脆弱性評価など複数層のセキュリティ分析が適用されます。これらの保護策には:
- マルウェア分析:埋め込まれた悪意のあるコードを検出する
- 脆弱性評価:既知のCVEや潜在的なゼロデイ脅威に焦点を当てる
- バックドア検出:不正なコード実行やネットワーク通信などの隠れた行動を識別する
- モデルの整合性チェック:レイヤー、テンソル、コアコンポーネントでの改ざんを検出する
これらのチェックを受けたモデルは、そのモデルカードにマークが付けられ、顧客に対して透明性が提供されます。
共有責任と統治
Microsoftは、完全な保護を保証するセキュリティスキャンプロセスがないことを認識しています。従来のソフトウェア同様、組織は信頼、ソースの信用性、使用事例の適合性に基づいてAIモデルを評価する必要があります。
結論
Microsoftはこれらの保護策を通じて、Azure AI Foundryを安全なプラットフォームとして位置付けようとしています。これにより、生成型AIの採用が加速する中で、イノベーションと企業リスク露出のバランスを取ることが可能になります。
