Instagram、親が子供の自傷行為関連の検索を監視
Meta(旧Facebook)は、Instagramで13歳以上のティーンユーザーが自殺や自傷行為に関連するキーワードを「繰り返し」検索した場合に、親に通知する機能を導入すると発表しました。この新機能は来週からアメリカ、イギリス、オーストラリア、カナダで展開されますが、保護者とティーンが監視機能の利用を同意している場合のみ有効となります。
通知方法とサポート情報
親への通知はメールやテキストメッセージ(WhatsAppも含む)を通じて行われます。また、アプリ内では親向けにリソースが提供され、どのように子供と話すべきかのアドバイスも含まれています。
MetaのAIチャットボットにも類似機能を導入
Instagramでのこの取り組みは、Metaが後半期にAIチャットボットでも同様の警告システムを導入する計画の一環となっています。これにより、ユーザーが自傷行為や自殺に関連する内容を探している場合、適切なサポート情報へと誘導することが可能になります。
保護者への通知は慎重に
Instagramは、「多くのティーンが自殺や自傷行為のコンテンツを検索しようとすることはほとんどありません」と述べています。「しかし、そうした検索が行われた場合、当社のポリシーではこれらの検索をブロックし、代わりに支援を提供するためのリソースとホットラインへとユーザーを導きます。」
今後の展開予定
この新機能は当初、上記4カ国でのみ利用可能ですが、年内には他の地域にも拡大する計画です。
元記事: https://www.theverge.com/tech/885110/meta-instagram-parent-alert-teen-self-harm-suicide
