概要
米国財務省はこのほど、金融サービス企業が人工知能(AI)を安全かつ効果的に活用するための指針を開発しました。これは、業界と連邦・州の規制当局との協力によって作成されたものです。
具体的な内容
財務省は、AIに関する専門用語集と、国家標準技術研究所(NIST)のAIリスク管理フレームワークを金融サービス業界向けにカスタマイズした版を発表しました。
- AI専門用語集:頻繁に使用されるAI関連の用語を定義し、金融セクターでの具体的な意味を明確化しています。
- NIST AIリスク管理フレームワーク:企業のAI成熟度を評価するためのアンケートや、AIに関連するリスクと対策を結びつけるマトリックス、そしてこれらの対策を実装するためのガイドラインが含まれています。
開発背景
この指針は、財務省の人工知能執行監視グループ(AIEOG)によって作成されました。同グループは、州と連邦の規制当局、金融機関の経営者など「主要な利害関係者」と協力して開発を進めました。
中小規模企業への配慮
財務省のサイバーセキュリティおよび重要インフラ保護副次官補、コーリー・ウィルソン氏は、「これらの資源は中小規模の金融機関がAIを活用してサイバーディフェンスを強化し、より安全にAIを展開するための支援を行う」と述べています。
AI利用のリスクと対策
AIは金融業界で急速に普及していますが、その一方で深刻なリスクも伴います。誤ったモデルによる機密情報漏洩や偏見のあるモデルによるシステム的な差別化などが懸念されます。
規制当局の役割
AIの利用を適切に監視・評価するためには、規制当局が十分な能力と専門知識を持つことが求められます。しかし、多くの場合、そのような能力や知識は不足しています。
