AIデータ漏洩防止のウェビナー:現代の代理的ワークフローを監査する
人工知能(AI)は、単なる会話ツールではなく、私たちの代わりに仕事を行うツールとして進化しています。これらのAIエージェントは、メールを送信したり、データを移動させたり、ソフトウェアを管理したりすることができます。しかし、これらのエージェントが業務を効率化する一方で、サイバー攻撃者にとって新たな「バックドア」が開かれています。
問題:「見えない従業員」
AIエージェントを想像してみてください。建物のすべてのオフィスに鍵を持っている新しい従業員がいますが、ネームタグがありません。これらのエージェントは独自の行動を取るため、通常、誰も監視していない敏感な情報をアクセスできます。サイバー攻撃者はこの弱点を理解しています。パスワードを破る必要はありません——AIエージェントをだますだけで済みます。
ウェビナーの概要
このウェビナーでは、AiriaのAIセキュリティ製品責任者であるRahul Parwaniが、攻撃者がこれらのエージェントをどのように標的とし、それを防ぐ方法を詳しく説明します。
学べること
- アイデンティティの「ダークマター」:AIエージェントがセキュリティチームからどのように見えないか、そしてそれを見つけ出す方法。
- エージェントがだまされる方法:文書に隠された「悪いアイデア」がAIエージェントをどのように誘導し、会社の秘密を漏洩させるか。
- 安全な設計:AIエージェントに必要な権限を与える方法——しかし「神モード」を与えることなく。
参加対象者
ビジネスリーダー、ITプロフェッショナル、または会社データのセキュリティを確保する責任があるすべての人に向けたセッションです。コードの専門家でなくても、これらのリスクを理解できます。
ウェビナー参加登録
あなたのAIが最大のセキュリティ穴にならないようにしましょう。今すぐウェビナーに参加を予約してください。
元記事: https://thehackernews.com/2026/03/how-to-stop-ai-data-leaks-webinar-guide.html
