ChatGPTの安全性強化と未成年保護
OpenAIのChatGPTは、ユーザーの安全とプライバシー保護を強化するための重要なアップデートを続けています。特に注目すべきは、自殺関連の対話への対応と未成年ユーザーの保護です。
- 自殺関連対話への対応強化: OpenAIは、週に100万件以上に及ぶ自殺関連の対話に対し、精神衛生の専門家170名以上と協力してChatGPTの応答を改善しました。これにより、より適切で安全なサポートを提供することを目指しています。
- 未成年ユーザー向けペアレンタルコントロール: 10月には、ウェブおよびモバイル版ChatGPTにペアレンタルコントロール機能が導入されました。これにより、保護者は機密コンテンツの制限、利用時間の指定、音声モードや画像生成機能の無効化など、未成年者の利用を管理できるようになります。
- 未成年者向けポリシーの厳格化: 9月には、CEOのサム・アルトマンが未成年ユーザー向けのポリシーを強化すると発表しました。これには、未成年者との不適切な交流のブロック、自殺に関する議論に対するより強力な保護、深刻なケースにおける保護者や当局へのエスカレーションが含まれます。これは、チャットボットが関与したとされるティーンエイジャーの自殺に関する訴訟を受けての動きです。
AIセラピーとプライバシーの懸念
AIを活用したセラピー機能の進化に伴い、プライバシーと安全に関する懸念も浮上しています。
- 守秘義務の欠如: サム・アルトマンCEOは、AI業界には機密性の高い会話に対する保護措置が不足しており、ChatGPTでのセラピーは人間によるセラピーとは異なり、医師と患者の守秘義務に縛られないと警告しました。ユーザーはAIに感情的なサポートを求める際に注意が必要です。
- AIセラピーチャットボットのリスク: スタンフォード大学の研究者たちは、大規模言語モデルを搭載したセラピーチャットボットが、精神疾患を持つ人々をスティグマ化したり、不適切または有害な方法で応答したりする可能性があると指摘しています。研究は、AIコンパニオンが「コンパニオン、相談相手、セラピストとして使用されている」一方で、「重大なリスク」があることを発見しました。
企業・政府向け機能とデータセキュリティ
ChatGPTは、企業や政府機関向けの機能も拡張しており、それに伴うデータセキュリティの側面も重要視されています。
- 企業向け知識検索: OpenAIの新しい「会社知識」アップデートにより、Business、Enterprise、Educationユーザーは、GPT-5を使用してSlack、Google Drive、GitHubなどのツール全体で職場データを検索できるようになりました。これは、機密情報の取り扱いにおいて厳格なデータセキュリティ対策が求められることを意味します。
- 連邦政府機関への提供: OpenAIは、連邦政府機関向けにChatGPT Enterpriseを1年間1ドルで提供するという大きな動きを見せています。政府機関が機密情報を扱う上で、AIのセキュリティとプライバシー保護は最優先事項となります。
- AIブラウザ「Atlas」のローンチ: OpenAIは、ChatGPT AtlasというAIブラウザをMac向けにローンチしました。これは、従来の検索結果ではなくChatGPTから回答を得ることを目的としており、ユーザーの検索行動やデータプライバシーに新たな影響を与える可能性があります。
開発者向け機能とオープンソースモデル
開発者向けの機能拡張とオープンソースモデルのリリースも、セキュリティの観点から注目されます。
- ChatGPT内でのアプリ開発: OpenAIは、開発者がBooking.com、Expedia、Spotifyなどのパートナーと共に、ChatGPT内で直接インタラクティブなアプリを構築できるようになったと発表しました。これにより、サードパーティ製アプリのセキュリティと、それらがアクセスするデータに対する厳格な管理と監査が不可欠となります。
- オープンソースモデルの再開: OpenAIは、GPT-2以来となる初のオープンソース言語モデル「gpt-oss-120b」と「gpt-oss-20b」をリリースしました。オープンソースモデルは、コミュニティによるセキュリティ監査の機会を提供する一方で、悪意のある利用のリスクも伴うため、その利用には慎重な検討が必要です。
元記事: https://techcrunch.com/2025/10/31/chatgpt-everything-to-know-about-the-ai-chatbot/
