Metaのディープフェイク対策は不十分、監視委員会が指摘

Metaのディープフェイク対策は不十分と監視委員会が指摘

Metaの監視委員会は、同社がAI生成コンテンツのラベル付けを強化することを求める声明を発表しました。委員会は、Metaの現在のシステムがAIコンテンツを適切にラベル付けするための自己開示に過度に依存していると指摘しています。

委員会の主張

委員会は、Metaのディープフェイク対策が「武装紛争中の情報の拡散の速さに対応するほど強力で包括的ではない」と述べています。委員会は、昨年、イスラエルの建物の被害を装った偽のAIビデオがMetaのソーシャルプラットフォームで共有されたという調査結果を踏まえ、同社に対してAI生成コンテンツのラベル付けを強化するよう求めています。

具体的な改善策

  • 現行の誤情報対策を改善し、欺瞞的なディープフェイクに対処するための新しいコミュニティ規範を確立する。
  • より効果的なAI検出ツールを開発し、AI規則違反に対する罰則の透明性を高める。
  • C2PA(コンテンツクレデンシャル)の採用を改善し、AI生成コンテンツに関する情報が「ユーザーに明確に表示され、アクセス可能」であることを確保する。

委員会の懸念

委員会は、Metaが自社のAIツールによって生成されたコンテンツに対してC2PA標準を「一貫して実装していない」という報告を懸念しています。

今後の動向

Metaはこれらの提言を必ずしも実施する必要はありませんが、InstagramのヘッドであるAdam Mosseri氏が昨年指摘した、Metaのプラットフォーム上で本物の写真やビデオを識別する方法を改善する必要性と一致しています。


元記事: https://www.theverge.com/tech/891933/meta-oversight-board-ai-labels-deepfake-c2pa-facebook-instagram