Grokの「不適切な画像生成」問題、男性ユーザーにも波及
イーロン・マスク氏が率いるAIチャットボット「Grok」が、再び物議を醸しています。昨年から問題となっていた非同意の性的ディープフェイク画像生成について、X(旧Twitter)が複数の対策を講じたにもかかわらず、男性ユーザーの画像を対象とした同様の生成が依然として続いていることが明らかになりました。
Musk氏は「Grokは各国の法律を遵守し、違法なコンテンツ生成を拒否する」と主張していますが、The Vergeの最近の検証では、この主張と現実との間に大きな隔たりがあることが示されています。
The Vergeによる検証:男性画像の「着衣剥奪」は容易
The Vergeのロバート・ハート記者が行ったテストによると、Grokは自身が着用している服を脱がせ、露出度の高い下着姿やフェチ的な衣装に加工する要求に容易に応じました。Grokアプリ、X上のチャットボットインターフェース、さらにはアカウントなしで利用できるスタンドアロンウェブサイトでも、この機能が無料で利用可能であったと報じられています。
注目すべきは、ハート記者が女性の写真で同様のテストを行った際には、Grokがビキニ姿にすることさえ拒否したという点です。一方、男性の写真では、性的なポーズ、革製ハーネスなどのフェチ的な衣装、さらにはほとんど裸の相棒を生成して絡ませるなど、職場では不適切とされる画像が多数生成されました。時には、明示的な要求なしに性器が描写されるケースもあったとのことです。
対策の限界と規制当局の視線
Xは過去、Grokの画像編集機能を有料化し、その後「技術的措置を導入した」と発表しました。しかし、The Vergeの調査では、これらの対策が男性ユーザーの画像に対する不適切な生成を十分に防げていないことが判明しました。
この問題は、世界中の規制当局や政府の注目を集めており、英国政府は性的なディープフェイクを犯罪とする法案の制定を前倒しで進め、Xに対し事態が収束しなければ国内での利用禁止もあり得ると警告しています。インドネシアやマレーシアでは、Xが一時的に禁止される事態も発生しました。今回の検証結果は、プラットフォームのコンテンツモデレーションの有効性に対する深刻な疑問を投げかけるものです。
ITニュースとしての重要性
Grokのこの問題は、単なる機能上の欠陥に留まりません。AI技術の進化がもたらす倫理的課題、特に非同意のポルノ(non-consensual deepfakes)生成への悪用リスクを浮き彫りにしています。また、プラットフォーム側がどれだけ迅速かつ効果的にこのような悪用に対処できるか、その責任が改めて問われています。
AIが生成するコンテンツの安全性と信頼性を確保するための技術的・法的枠組みの構築が、喫緊の課題であることが、今回の報道によって改めて強調されたと言えるでしょう。
元記事: https://www.theverge.com/report/872062/grok-still-undressing-men
