はじめに
サイバーセキュリティ業界では、AIがサイバー犯罪に与える影響について長年懸念が表明されてきました。しかし、Intel 471の最新レポートによると、AIはソーシャルエンジニアリングの分野で悪用されているものの、ハッキングの手法そのものを根本的に変革するまでには至っていないことが明らかになりました。
AIの現状:ハッキングへの影響
レポートによれば、AIはフィッシング攻撃において、ルアー(誘い文句)の質を向上させたり、コンテンツのドラフト作成やローカライズに利用されたりするなど、主に「進化的な」役割を果たしています。しかし、真の自動化や革新的な攻撃手法への応用はまだ限定的です。
研究者たちは、「AIはソーシャルエンジニアリングの状況を一変させるものとしてしばしば喧伝されるが、フィッシングの文脈では、ほとんどの脅威アクターは依然として[Phishing-as-a-Service]プラットフォームや既製のキットに依存しており、AIは主にコンテンツのドラフト作成とローカライズに利用され、真の自動化や革新には至っていない」と述べています。
AIがまだ革命的ではない理由
AIがハッキングにおいて革命的な役割を果たしていない主な理由として、以下の3点が挙げられています。
- 計算上の制約:AIツールの運用には高い計算能力が必要。
- ハッキングツールへの統合の難しさ:AIを既存のハッキングインフラに組み込むことが複雑。
- 既存戦術の継続的な有効性:「プラグアンドプレイ」型のフィッシングキットなど、既存の手法が依然として効果的であるため、新たなAIベースのツールへの移行インセンティブが低い。
Intel 471は、「サイバー攻撃にAIを組み込むには、モデルのトレーニングや設定、攻撃インフラ内での自動化、配信システムとの統合、検出回避方法の考案が必要であり、これらすべてがハッカーの収益性の高い作業から時間を奪う」と指摘しています。
AIを活用した新たな攻撃手法
それでも、ハッカーは生成AIを複数の方法で活用し始めています。特に注目すべきは以下の点です。
- オーディオディープフェイク:幹部の声を模倣し、詐欺に利用。
- AI搭載コールセンター:詐欺を自動化。
- ビデオディープフェイク:採用面接などで相手を欺く。
- AI搭載音声ボット:被害者から多要素認証コードやクレジットカード番号を詐取。
レポートでは、GoogleとOpenAIのモデルを含む3つのAIモデルを使用したコールセンターの事例や、被害者の10%からデータ窃取に成功したと豪語するAI音声ボットサービスの広告についても言及されています。
今後の展望
現時点では、アンダーグラウンド市場でAI駆動型ツールが流通している証拠は限られており、脅威アクター間の議論でも生成AIの運用上の使用に言及されることは稀です。Intel 471は、この技術の「実用的な採用」はまだ初期段階にあると結論付けています。
しかし、モデルホスティングのコストが低下し、今日の人気のあるPhaaS(Phishing-as-a-Service)に匹敵する「最先端の」AIキットが登場すれば、広範な利用が始まるだろうと予測しています。将来的には、ビジネスリーダーを標的としたディープフェイクによるなりすまし電話の増加や、選挙、地政学的紛争、社会正義に関する議論におけるAIを悪用した偽情報の急増が予想されます。
元記事: https://www.cybersecuritydive.com/news/ai-phishing-social-engineering-reality-check-research/802261/