概要
Instagramは、ティーンエイジャーが短期間で自殺または自傷行為に関連する用語を繰り返し検索した場合に親にアラートを送る機能を開始すると発表しました。この機能は、既存の検索ブロック機能と組み合わせて、ティーンエイジャーが危険なコンテンツに関連する情報を探索しようとする可能性がある場合に親をサポートします。
詳細
Instagramは、親が子供のアカウントを監視できるようにするために「親の監視」機能を使用しています。この新しいアラートは、ティーンエイジャーが自殺や自傷行為に関連する用語を検索した場合に親に通知されます。
具体的には、次のようなフレーズが含まれる検索がアラートの対象となります:
- 自殺または自傷行為を助長するフレーズ
- ティーンエイジャーが自己破壊的な行動をする可能性があることを示唆するフレーズ
- 「自殺」や「自傷」といった特定の用語
親は、メール、テキストメッセージ、またはWhatsApp経由でアラートを受け取ります。また、アプリ内にも通知が表示されます。
背景と影響
この機能の導入は、Meta(Instagram所有者)を含む大手テクノロジー企業に対する複数の訴訟に対応するための一環です。これらの訴訟では、ソーシャルメディアがティーンエイジャーに悪影響を与える可能性があるとしています。
さらに、Meta社内での研究によると、親の監視や制御は子供たちの過度なソーシャルメディア使用を抑制する効果があまりないことが明らかになりました。ストレスフルな出来事に直面している子供たちは特に、適切なソーシャルメディア利用を調節するのが難しい傾向にあるとされています。
今後の展開
この新しいアラート機能は、来週からアメリカ、イギリス、オーストラリア、カナダで導入され、年内には他の地域でも利用可能になる予定です。Instagramは、ティーンエイジャーがアプリのAIと自殺や自傷行為に関する会話を試みた場合にもアラートを送る機能を追加する計画もあります。
