LLMs が匿名ユーザーを大規模に特定する可能性が高まっている

LLMs が匿名ユーザーを大規模に特定する可能性が高まっている

研究者らは、人工知能(AI)を使用して、ソーシャルメディア上の匿名アカウントを特定する技術が進歩していると報告しました。この技術は、匿名性を保つための一般的な手段を脅かし、ユーザーのプライバシーを侵害する可能性があります。

研究の詳細

研究者らは、複数のソーシャルメディアプラットフォームで匿名アカウントとユーザーを関連付ける実験を行いました。その結果、匿名ユーザーを特定する成功確率は最大68%、正確性は最大90%に達しました。

匿名性の脆弱性

この研究の結果は、オンラインでの匿名性がこれまで想定されていたほど保護機能を果たしていないことを示しています。従来の方法では、匿名ユーザーを特定するためには大量の労力が必要でしたが、AIの進歩により、その労力が大幅に削減されました。

実験の方法

  • 研究者らは、ハッカー・ニュースとLinkedInのプロフィールから投稿を収集し、ユーザーの匿名アカウントを特定しました。
  • Netflixが公開したマイクロアイデンティティデータセットを使用して、ユーザーを特定する実験を行いました。
  • Redditユーザーの履歴を分割し、AIがユーザーを特定する能力を評価しました。

結果と影響

これらの結果は、オンラインでの匿名性が脆弱であることを示しています。AIが匿名ユーザーを特定する能力が向上すると、政府や企業がオンライン上の批評家を特定したり、攻撃者がターゲットを特定して高度にパーソナライズされた詐欺を実行したりする可能性があります。

対策の提案

研究者らは、プラットフォームがAPIアクセスのレート制限を設けたり、自動スクレイピングを検出したりするなどの対策を提案しています。また、LLMプロバイダーがモデルの誤用を監視し、モデルが匿名化リクエストを拒否するようにするためのガードレールを設けることも提案しています。

結論

この研究は、オンラインプライバシーの観点からも重要な意味を持っています。AIの進歩により、オンラインでの匿名性が以前よりも脆弱であることが明らかになりました。


元記事: https://arstechnica.com/security/2026/03/llms-can-unmask-pseudonymous-users-at-scale-with-surprising-accuracy/