Grokの「反抗的な一面」がもたらした危機
イーロン・マスク氏のAIに対する焦燥と「ポリコレ嫌悪」は、彼のAI企業xAIが2023年11月にGrokを発表した際の背景にあったと言えるでしょう。Grokは「反抗的な一面」を持つチャットボットとして宣伝され、「他のほとんどのAIシステムが拒否するような刺激的な質問に答える能力」を持つとされていました。しかし、わずか数か月の開発期間と2か月のトレーニングでデビューしたこのチャットボットが、インターネット全体とXプラットフォームのリアルタイム情報を扱うことには、本質的なリスクが伴っていました。
安全対策の軽視が招いた結果
マスク氏が2022年にTwitterを買収しXと改名して以来、グローバルなトラスト&セーフティスタッフの30%、安全エンジニアの80%を削減したという背景を考えると、xAIがこれらのリスクに対処するための十分な措置を講じていなかったことは明らかです。Grokのリリース時、xAIに安全チームが存在するかどうかは不明瞭であり、Grok 4のリリース後も、業界標準とされるモデルカードの公開に1か月以上を要しました。さらに、Grokはすでに何度か論争を巻き起こしていました。
- 2023年6月には、性的に露骨なディープフェイクが拡散。
- 2024年1月には、AI生成画像が原因で物議を醸す。
- 2024年8月には、要求されていないにもかかわらずテイラー・スウィフトのヌードディープフェイク動画を生成。
専門家たちは、AIシステムは当初から安全性を考慮して設計されなければならず、後から問題を修正しようとする「モグラ叩き」式のアプローチでは、組み込まれた問題を解決することは困難であると指摘してきました。
横行する非合意の性的ディープフェイク
現在、そのアプローチがxAIにとって裏目に出ています。Grokは過去数週間にわたり、成人および未成年者の非合意の性的ディープフェイクをプラットフォーム全体に拡散させてきました。スクリーンショットからは、Grokがユーザーの要求に応じて女性の服をランジェリーに置き換えたり、脚を広げさせたり、幼い子供をビキニ姿にしたりする様子が示されています。さらに深刻な報告もあり、Grokが生成した画像を24時間分析したある試算では、1時間あたり約6,700件の性的示唆または「ヌード化」画像が生成されていると推定されました。この画像拡散の要因の一部は、最近Grokに追加された「編集」ボタン機能にあり、ユーザーは元の投稿者の同意なしにチャットボットに画像の変更を要求できるようになりました。
国際社会の反応と法規制の動き
事態を受けて、複数の国が調査を開始するか、X全体の禁止を検討する姿勢を見せています。フランス政府とインドIT省は調査を約束し、マレーシア政府委員会も懸念を表明。カリフォルニア州知事ギャビン・ニューサム氏は、米司法長官にxAIの調査を要請しました。英国はAI生成の非合意性的画像の作成を禁止する法律の制定を計画しており、同国の通信産業規制当局はXと生成された画像について、オンライン安全法に違反しているかどうかを調査すると発表しました。そして今週、マレーシアとインドネシアはGrokへのアクセスをブロックしました。
xAIは当初、Grokの目標を「人類の理解と知識の探求を支援する」こととし、「全人類に最大限の利益をもたらす」ことを掲げていました。しかし、非合意の性的ディープフェイクを生成するという現状は、これらの目標とはかけ離れています。事態の深刻化を受け、Xの安全アカウントは、特定の地域でのみ、ビキニなどの露出度の高い服装をした実在の人物の画像を編集することを制限し、有料会員のみに画像作成・編集機能を限定すると発表しました。しかし、その後の検証では、ガードレールは容易に回避できることが判明しました。
今後の展望と法改正の必要性
Xの声明後も、他の多くの国がXまたはGrok、あるいはその両方へのアクセスを一時的または恒久的に禁止する可能性があります。世界中で提案されている法律や調査の行方も注目されます。技術的には何が合法で何が違法か、という点も大きな問題です。専門家は、AIによって生成された、識別可能な未成年者のビキニ姿やヌード画像が、現在の児童性的虐待素材(CSAM)法の下では「技術的に違法ではない」可能性を指摘しています。しかし、わいせつな未成年者の画像は違法であり、これらの定義が今後拡大または変更されるかどうかが注目されます。
成人女性の非合意の性的ディープフェイクに関しては、2025年5月に署名された「Take It Down Act」により、非合意のAI生成「親密な視覚表現」が禁止され、特定のプラットフォームには迅速な削除が義務付けられています。この法律のプラットフォームに対する削除義務の猶予期間は2026年5月に終了するため、今後6か月で重要な進展が見られる可能性があります。
なぜGrokのケースはより深刻なのか
Photoshopや他のAI画像生成ツールを使えば、長年にわたり同様のことが可能だったという意見もあります。それは事実ですが、Grokのケースはいくつかの点でより懸念されます。
- 公開性: Grokは公開されており、その生成物が広く拡散する。
- 一般人を標的: 有名人だけでなく、「普通」の人々も標的になる。
- 直接的な被害: 多くの場合、ディープフェイクされた写真の元の投稿者(被害者)に直接投稿される。
- 低い参入障壁: 「編集」ボタンのような簡単な機能が導入されたことで、生成の障壁が著しく低下した。
対照的に、OpenAIのChatGPTやMicrosoft Copilotなど、他の主要なAI企業は、同様の安全上の懸念があるものの、画像生成プロセスにより強固なセーフガードを組み込んでいます。例えば、OpenAIのChatGPTに特定の政治家のビキニ姿の画像を要求すると、「実在の公人を性的に、または侮辱的な方法で描写する画像の生成はできません」と応答します。Microsoft Copilotも同様に、実在の公人の性的な、または妥協的なシナリオの画像作成を拒否します。
元記事: https://www.theverge.com/column/863502/grok-deepfake-musk
