OpenAI、GPT-4oの有害活動検出時に安全モデルへルーティング
OpenAIの最新モデルであるGPT-4oが、特定の状況下で未知のモデルにリクエストをルーティングしていることが週末にユーザーによって報告されました。この現象は、有害な活動を検出した際の「安全」機能であることが判明しました。
通常、ChatGPTは「オートモード」でGPT-5を使用している際に、より高度な思考をAIに要求すると、リクエストを「GPT-5-thinking」にルーティングすることがあります。しかし、今回ユーザーを動揺させているのは、GPT-4oの会話が、特に機密性の高い、または感情的なトピックに触れた場合、あるいは何らかの有害な活動と判断された場合に、異なるモデル、おそらくGPT-5のバリアントである「gpt-5-chat-safety」に切り替わるという点です。
安全ルーティングのメカニズム
OpenAIはこれらの報告を認め、その意図が悪意のあるものではないと説明しています。ChatGPTのVPであるNick Turley氏はX(旧Twitter)への投稿で、「ルーティングはメッセージごとに行われ、デフォルトモデルからの切り替えは一時的なものです。ChatGPTは、尋ねられた際にどのモデルがアクティブであるかを伝えます」と述べました。さらに、「以前にも述べたように、会話が機密性の高い、または感情的なトピックに触れる場合、システムはチャット中にこれらのコンテキストをより慎重に扱うように設計された推論モデルまたはGPT-5に切り替わる可能性があります」と付け加えています。
安全対策の目的と不可避性
このルーティング機能は、OpenAIが安全対策を強化し、広範な展開の前に実世界での利用から学ぶための広範な取り組みの一部であるとされています。この機能はOpenAIの実装の一部であるため、ユーザーがルーティングをオフにすることはできません。
セキュリティレポートの警告:パスワードクラッキングの増加
関連するセキュリティニュースとして、Picus Blue Report 2025が発表されました。このレポートによると、パスワードクラッキングが前年比で2倍に増加し、昨年25%だったのに対し、今年は46%の環境でパスワードがクラッキングされたことが明らかになりました。この報告は、AIの安全対策だけでなく、基本的なサイバーセキュリティ対策の重要性も浮き彫りにしています。