ブライアン・クランストンとSAG-AFTRA、OpenAIのディープフェイク対策を評価:肖像権保護の強化へ

AI生成動画における肖像権問題

俳優のブライアン・クランストン氏と全米映画俳優組合(SAG-AFTRA)は、OpenAIがAI生成動画サービス「Sora 2」におけるディープフェイク問題への懸念に真摯に対応していると発表しました。先月Sora 2がリリースされて以来、俳優、スタジオ、エージェント、そしてSAG-AFTRAは、AIによって生成される動画に自身の肖像や声が使用されることについて懸念を表明していました。

特に、クランストン氏がSoraで生成された動画(マイケル・ジャクソンとの自撮り動画など)に、本人の同意なしに登場したことが問題視されていました。

OpenAIの対応と「ガードレール」の強化

OpenAIは、クランストン氏の肖像が意図せず生成されたことに対し「遺憾の意」を表明し、肖像や声の使用に関するオプトインポリシーの「ガードレールを強化した」と共同声明で発表しました。この声明には、ユナイテッド・タレント・エージェンシー、タレント・エージェント協会、クリエイティブ・アーティスツ・エージェンシーも名を連ねており、これらの団体は以前、アーティスト保護の欠如を批判していました。

OpenAIは、アプリの具体的な変更点については言及していませんが、「すべてのアーティスト、パフォーマー、個人は、自身のシミュレーション方法と使用の有無を決定する権利を有する」と、オプトインしない人々への強力な保護を再確認しました。また、ポリシー違反に関する苦情は「迅速に」審査すると述べています。

クランストン氏は、OpenAIのポリシーとガードレールの改善に「感謝している」とコメントしました。

法整備の必要性と今後の課題

クランストン氏のケースは肯定的な解決に至ったものの、SAG-AFTRAのショーン・アスティン会長は共同声明で、パフォーマーを「複製技術による大規模な不正利用」から保護するための法律が必要であると強調し、提案されている「Nurture Originals, Foster Art, and Keep Entertainment Safe Act(NO FAKES Act)」に言及しました。

OpenAIは当初、Sora 2を著作権者向けのオプトアウトポリシーでローンチしましたが、「ナチ・スポンジボブ」のような動画に対する世間の反発を受け、方針を転換しました。その後、肖像権のオプトインモデルと同様に、キャラクター生成に対するより詳細な制御を著作権者に提供することを約束しています。

セキュリティの観点から

この一連の動きは、AI技術の急速な発展がもたらすデジタルアイデンティティと肖像権の保護という、新たなセキュリティ課題を浮き彫りにしています。個人の同意なくしてその肖像や声がAIによって生成・利用されることは、プライバシー侵害だけでなく、誤情報や詐欺に悪用されるリスクもはらんでいます。

OpenAIがガードレールを強化し、アーティストの権利を尊重する姿勢を示したことは一歩前進ですが、技術の進化に法整備が追いつくことが不可欠です。NO FAKES Actのような法案は、AI時代における個人の権利とセキュリティを確保するための重要な枠組みとなるでしょう。企業側も、技術開発と並行して、倫理的ガイドラインとセキュリティ対策を強化し、ユーザーの信頼を構築していく責任があります。


元記事: https://www.theverge.com/news/803141/openai-sora-bryan-cranston-deepfakes