新研究:AIの信頼性はガバナンスが決定する

概要

Tines社のVoice of Security 2026レポートによると、AIの採用が深まるにつれて、セキュリティチームは迅速に動く一方で、新たなセキュリティ、プライバシー、データ露出リスクを管理するという難しいジレンマに直面しています。この報告書では、1,800人以上のセキュリティリーダーと実践者を対象に調査を行い、AI時代におけるセキュリティチームの進化について理解しようと試みました。

AIガバナンスが中心的な優先事項となる

半数以上の組織(50%)は既に形式的で活用されているAIポリシーを有しており、さらに42%の組織はその導入を進めています。しかし、セキュリティとコンプライアンスに関する懸念が依然として効果的な自動化の主要な障壁となっています。

内部での使用がもたらすリスク

2026年の主要なAIリスクは組織内でどのようにAIを使用するかに起因しています。主なリスクには、データ漏洩(AIコパイロットやエージェントを通じて22%)、規制要件の変化(20%)、影のAI(18%)が挙げられます。

ポリシーの成熟度が信頼性を決定する

組織は既にガバナンスニーズへの対応を行っています。半数以上の組織(50%)は既に形式的で活用されているAIポリシーを持ち、さらに42%の組織はその導入を進めています。

AIがルール作成を支援

セキュリティチームは単独でガバナンス設計を行う必要はありません。この調査ではAIが既にコンプライアンスとポリシーライティングにおいて強力な役割を果たしていることが示されています。

実践的なガバナンスの設計

セキュリティリーダーは、組織全体で明確かつ再現可能な期待値を定義することで、ガバナンスを機能するシステムに変えることができます。承認された使用事例を定義し、チームがAIを使用できる場所とすべき場所を理解させます。

信頼性のある運用AIへ

AIはセキュリティオペレーションの基盤であり、99%のSOCチームが既に使用しています。ガバナンスは戦略的なインフラストラクチャとして取り扱うべきで、明確なポリシーとガードレールにより組織はAIを安全に拡大し、ビジネスの敏捷性をサポートできます。


元記事: https://www.cybersecuritydive.com/spons/new-security-research-finds-governance-determines-trust-in-ai/811962/