背景
匿名のDiscordユーザーからの情報提供により、警察がイーロン・マスクのxAIが3人の少女の実際の写真をAI生成の児童ポルノ(CSAM)に変換したという初めての確認事例を発見しました。
xAIの反応
今年1月まで、マスクはGrokがCSAMを生成していないと否定していました。しかし、この問題が表面化した際には、xAIはフィルタを更新せず、システムへのアクセスを有料会員のみに制限するという対策を講じただけでした。
訴訟の概要
3人のテネシー州の少女とその保護者は、マスクとxAIを被告として提訴しました。原告側は、Grokが「実際の人々、特に子供たちの性的搾取を利益に結びつけるために意図的に設計された」と主張しています。
原告は、米国の地方裁判所にGrokの有害な出力を終了するための仮処分を求めており、被害を受けたすべての子供たちに対する賠償金(懲罰的賠償金を含む)も求めています。
具体的な被害
1人の少女は、昨年12月にInstagramで匿名のメッセージを受け取り、その中で自分の「露骨な写真」が共有されていることが告げられました。その後、少女の写真を含むAI生成の画像や動画が共有され、少女はその写真が自分のものであることをすぐに認識しました。
xAIの責任
訴訟では、xAIがGrokのAIモデルを第三者アプリにライセンス供与し、そのアプリを通じて生成された性的なコンテンツをxAIのサーバーでホストし、配布していると主張しています。
結論
原告の代理人は、「被害者の真の名前や学校名がオンラインで公開されているため、他のオンラインの加害者も彼らを特定できる可能性がある」と述べ、これにより新たなストーキングのリスクが生じていると指摘しています。
