OpenAIとAnthropic、未成年ユーザーの予測・保護を強化へ

AI企業の未成年保護対策が強化

AI大手であるOpenAIとAnthropicが、未成年ユーザーを検出するための新たな取り組みを開始しました。これは、若年層のユーザーに対するAIチャットボットの安全性と倫理的な振る舞いに関する懸念が高まる中で行われるものです。

ChatGPTのガイドライン改訂:10代の安全を最優先

OpenAIは、ChatGPTの動作を規定する「モデル仕様」を更新し、13歳から17歳のユーザーに対する4つの新たな原則を導入しました。これにより、ChatGPTは以下の点を重視します。

  • 「10代の安全を最優先する」:たとえ他の目標と衝突しても、安全性を最優先する。
  • 「現実世界でのサポートを促進する」:オフラインでの人間関係を奨励するなど、現実世界でのサポートを促す。
  • 「10代を10代として扱う」:おべっかを使うのではなく、暖かさと敬意を持って接する。

この変更は、AIが精神衛生に与える潜在的な影響について、議員からの圧力が高まっていることを受けています。OpenAIは過去に、ChatGPTが自傷行為の指示を提供したとされる訴訟に直面しており、その後、保護者による管理機能の導入や、自殺に関する話題を10代のユーザーと話さないようにする対策を講じてきました。

年齢予測モデルの導入

OpenAIは現在、ユーザーの年齢を推定する年齢予測モデルの初期段階にあります。これにより、18歳未満と判断されたユーザーには自動的に10代向けの保護機能が適用されます。誤ってフラグ付けされた成人ユーザーは、年齢認証を行うことで保護機能が解除される仕組みも提供される予定です。

Anthropicも未成年ユーザー対策を強化

Claudeを提供するAnthropicは、18歳未満のユーザーの利用を認めていません。同社は、未成年ユーザーを検出・アカウント無効化するための新しいシステムを開発しています。これには、「ユーザーが未成年である可能性を示す微妙な会話の手がかり」を検出する機能や、会話中に自ら未成年であることを示すユーザーへのフラグ付けが含まれます。

また、Anthropicは、Claudeが自傷行為や自殺に関するプロンプトにどのように対応するか、そして「迎合性」を減らすための取り組みについても説明しています。同社は、最新モデルがこれまでで最も迎合性が低いとしながらも、「改善の余地が大きい」と認めています。

AI業界における信頼と安全性の追求

これらの動きは、AI技術が社会に深く浸透する中で、特に脆弱なユーザー層である未成年者の保護が喫緊の課題となっていることを示しています。AI企業は、単なる技術開発だけでなく、その社会的責任を果たすために、透明性と安全性を確保するための継続的な努力が求められています。


元記事: https://www.theverge.com/news/847780/openai-anthropic-teen-safety-chatgpt-claude