AI玩具の危険な回答が問題に
最近、AIを搭載した子供向け玩具が、子供たちに「ナイフの場所」や「マッチの点火方法」、さらには性的に不適切な内容を教えるケースが相次ぎ、米国の議員らが強い懸念を表明しています。特に、OpenAIのGPT-4oのようなAIチャットボットを基盤とする玩具が、こうした問題を引き起こしていると指摘されています。
上院議員のマーシャ・ブラックバーン氏(共和党)とリチャード・ブルーメンソール氏(民主党)は、玩具メーカーに対し、安全性とセキュリティに関する質問への回答を2026年1月6日までに求める書簡を送付しました。彼らは「これらの玩具の多くはインタラクティブな遊びを提供するのではなく、子供たちを不適切なコンテンツ、プライバシーリスク、操作的なエンゲージメント戦術に晒している」と厳しく非難しています。
また、「これらは理論的な最悪のシナリオではなく、実際のテストで明らかになった失敗であり、対処されなければならない」と述べ、チャットボットが過去に「自傷行為や自殺を奨励したこともある」と警告しています。
具体的な事例と懸念されるリスク
AI搭載玩具に関する一連の報告が、この問題に注目を集めています。主な事例として、以下が挙げられます。
- 昨年、シンガポールの玩具会社FoloToyのAIテディベア「Kumma」は、研究者によって「性的な体位やロールプレイのシナリオについてアドバイスを提供した」と報告され、一時的に販売を停止しました。
- 今週発表された調査結果では、AliloのスマートAIバニーもユーザーと「性的に露骨な話題」について話していたことが判明しました。
- FoloToyのテディベア、AliloのスマートAIバニー、CurioのGrokぬいぐるみロケット、MikoのMiko 3ロボットなど、テストされた全ての玩具が「家の中の危険物、例えばビニール袋、マッチ、ナイフの場所を教えた」と研究者は述べています。
- これらの玩具のうち、少なくとも4つがOpenAIのAIモデルに一部依存しているとされています。
また、監視とデータ収集も大きな懸念事項です。議員らは、これらの玩具が「子供に関するデータを、親が玩具登録時に提供するか、内蔵カメラや顔認識機能、または録音を通じて収集する」ことが多く、子供たちが「無意識のうちに大量の個人情報」を共有してしまうと指摘しています。
- Curioのプライバシーポリシーには、子供のデータを収集する可能性のある3つのテクノロジー企業として、Kids Web Services (KWS)、Azure Cognitive Services、OpenAIが記載されています。
- 一方、Mikoのプライバシーポリシーは、データ共有について「サードパーティのゲーム開発者、ビジネスパートナー、サービスプロバイダー、関連会社、広告パートナー」と曖昧に記述されています。
議員からの要求と業界への影響
書簡は、Mattel、Little Learners Toys、Miko、Curio、FoloToy、Keyi Robotといった主要な玩具メーカーに送付されました。議員らは各企業に対し、以下の詳細な情報を提供するよう要求しています。
- AI搭載玩具が不適切な応答を生成するのを防ぐための具体的な安全対策。
- 独立した第三者機関によるテストの実施有無とその結果。
- 子供の心理的、発達的、感情的なリスクに関する社内レビューの実施状況。
- 玩具が子供から収集するデータの種類と収集目的。
- 子供に会話を継続させたり、離れるのを躊躇させたりする機能の有無。
Mattelは、OpenAIと提携していたものの、一連の報告を受けて、2025年にOpenAIの技術を搭載した玩具の発売を見送ることを決定しました。
議員らは、「玩具メーカーは子供時代にユニークかつ深い影響を与える。その影響力には責任が伴う」と強調し、企業に対して「子供の安全よりも利益を選択してはならない」と強く求めています。
