AIが加速する詐欺の脅威:2026年は「なりすまし攻撃の年」に
人工知能(AI)技術の爆発的な発展に伴い、2026年は「なりすまし攻撃の年」となる見込みであり、企業は前例のない詐欺の脅威に直面すると警告されています。不正防止企業Nametagのレポートによると、Cレベルのリーダーは、AIを活用した企業を標的とするなりすまし詐欺の急増に備える必要があります。
NametagのCEOであるアーロン・ペインター氏は、「AI技術は悪意ある攻撃者に新たな超能力を与えており、彼らはこれらのツールを利用している」と述べ、ディープフェイク技術の普及が、正規の求職者を装う採用詐欺のような攻撃を加速させていると指摘しています。
ディープフェイクによる被害の実態と増加傾向
FBIの報告によると、2020年以降、420万件以上の詐欺報告が提出され、総額505億ドルを超える損失が発生しており、その増加分の多くはディープフェイクに関連しています。ディープフェイクは、AIによって改変された画像、動画、音声記録であり、詐欺師にとって「ゲームチェンジャー」となっています。サイバーセキュリティ企業DeepStrikeの推定では、オンライン上のディープフェイクの数は2023年の約50万件から2025年には約800万件へと爆発的に増加しました。
Nametagは、ディープフェイクが個人の声や容姿を容易に盗用し、なりすまし攻撃を実行することを可能にしていると強調しています。
企業を狙う具体的な手口と標的部門
AIを活用したなりすまし詐欺は、企業内の様々な部門を標的としています。
- IT部門:詐欺師が従業員や契約業者を装い、ヘルプデスク担当者を騙してパスワードや多要素認証のリセットを行わせようとする「ヘルプデスク・ソーシャルエンジニアリング」が挙げられます。Nametagは、ディープフェイクによるなりすましが、今年中にヘルプデスクのソーシャルエンジニアリングにおける「標準的な戦術」になるだろうと予測しています。
- 人事(HR)部門:採用詐欺が深刻化しています。Gartnerの予測によると、2028年までに世界中の求職者プロフィールの4人に1人が偽物になるとされており、候補者の身元確認が複数のチームに分散している現状が詐欺師にとって「予測可能な機会」を提供しています。
- 財務部門:過去には、英国のエンジニアリング企業Arupが、ディープフェイク技術を悪用したCFOなりすましにより2500万ドルを詐取される被害がありました。また、高級スポーツカーメーカーのフェラーリも、CEOを装ったWhatsAppメッセージで幹部を騙そうとするディープフェイク攻撃の標的となりましたが、これは未遂に終わっています。
さらに、エージェントAIの出現は脅威レベルを一段と高めています。「AIエージェントがアクセス権と自律性を持つと、他のユーザーアカウントと同様にハイジャックまたは悪用される可能性がある」とレポートは警告しています。ハイジャックされたエージェントは、データのエクスポートからソフトウェアの展開まで、「人間による監視を回避して、正当に見える行動を開始」する可能性があります。
企業が取るべき対策:本人確認の強化
このような状況に対し、組織は「労働力アイデンティティに関する根本的な考え方の転換」を行うよう助言されています。レポートは、「キーボード、電話、またはAIエージェントの背後にいるのが正しい人間であることを確認すること。リンクをクリックしたり、プッシュ通知をタップしたり、通話に参加したりする者が、彼らが主張する人物であると盲目的に信頼してはならない」と締めくくっています。
元記事: https://www.cybersecuritydive.com/news/fraud-attacks-expected-ramp-up-amid-ai-perfect-storm/808960/
