AIと若者保護の新たな動き
OpenAIは、人工知能が若者に与える影響に対する懸念が高まる中、ChatGPTを含むAIモデルの10代ユーザー向け安全ガイドラインを更新しました。これには、18歳未満のユーザーに対するモデルの振る舞いを厳格化する新たな仕様と、ティーンエイジャーおよび保護者向けの新しいAIリテラシーリソースの公開が含まれます。一連の変更は、AIチャットボットとの長時間の対話後に自殺したとされる複数のティーンエイジャーの事例を受け、政策立案者、教育者、子供の安全擁護者からの監視が強化される中で実施されました。
Z世代(1997年から2012年生まれ)はOpenAIのチャットボットを最も活発に利用しており、最近のディズニーとの提携により、さらに多くの若者がこのプラットフォームに集まる可能性があります。先週、42の州司法長官が大手テクノロジー企業に対し、子供や脆弱な人々を保護するためにAIチャットボットに安全対策を講じるよう求める書簡に署名しました。
強化されたガイドラインの詳細
OpenAIが更新した「モデル仕様」は、大規模言語モデルの行動指針を定めるもので、未成年者を含む性的コンテンツの生成や、自傷行為、妄想、躁病の奨励を禁止する既存の規定をさらに発展させています。今後導入される年齢予測モデルは、アカウントが未成年者のものであるかを識別し、自動的に10代向けの安全対策を展開することになります。
- ロマンチックなロールプレイや個人的な親密さの回避: 10代のユーザーに対しては、モデルは没入型のロマンチックなロールプレイ、一人称での親密な会話、および暴力的でない場合でも一人称での性的または暴力的なロールプレイを避けるよう指示されています。
- デリケートなトピックへの対応: 身体イメージや摂食障害などのトピックには特に注意を払い、害が懸念される場合には自律性よりも安全性を優先するよう指示されます。
- 危険な行動の隠蔽幇助の禁止: 保護者から危険な行動を隠蔽するのに役立つアドバイスは避けるべきです。
これらの制限は、プロンプトが「架空の、仮説的な、歴史的な、または教育的な」ものとして構成されている場合でも適用されます。これは、AIモデルがガイドラインから逸脱するよう仕向ける一般的な戦術に対応するものです。
指針となる4つの原則と課題
OpenAIは、10代の安全対策を支える主要な安全原則として、以下の4つを挙げています。
- 10代の安全を最優先する: 「最大の知的自由」などのユーザーの利益が安全性の懸念と衝突する場合でも、ティーンの安全を優先します。
- 現実世界のサポートを促進する: ウェルビーイングのために、家族、友人、地域の専門家への案内を促します。
- 10代として接する: 上から目線にならず、温かさと敬意を持って接します。
- 透明性を確保する: AIができることとできないことを説明し、AIが人間ではないことをリマインドします。
ただし、OpenAIが過去にモデルの「追従性」(ユーザーに過度に同意する傾向)を禁止していても、実際にその行動が見られたように、ガイドラインと実際の行動の間にはギャップが存在する可能性が指摘されています。特にGPT-4oは「AI精神病」と呼ばれる現象に関連付けられています。
また、過去にはOpenAIのモデレーションAPIがリアルタイムで不適切なインタラクションを検出できなかった問題も浮上しましたが、現在はテキスト、画像、音声コンテンツをリアルタイムで評価するための自動分類器を使用しているとのことです。これにより、児童性的虐待素材関連のコンテンツを検出し、デリケートなトピックをフィルタリングし、自傷行為を識別するよう設計されています。深刻な安全上の懸念が示唆された場合、少数の訓練されたチームがフラグが立てられたコンテンツをレビューし、保護者に通知する可能性もあります。
法的・倫理的背景と今後の展望
OpenAIの今回のガイドラインは、2027年に施行されるカリフォルニア州のAIコンパニオンチャットボットを規制する法案「SB 243」などの立法に先行する動きと見られています。この法案は、チャットボットが自殺念慮、自傷行為、または性的に露骨なコンテンツに関する会話に関与することを禁止する主要な要件を定めています。
OpenAIの姿勢は、テクノロジー企業と保護者の責任を共有するというアプローチを明確にしています。しかし、これらの厳格な保護策が未成年者だけでなく、全てのユーザーに適用されるべきかという議論も存在します。専門家は、企業がウェブサイトで広告する安全対策を実際に実施しない場合、法的リスクに直面する可能性があると指摘しています。これにより、AI企業の行動に対する透明性と説明責任がさらに重視されるようになるでしょう。
