Google Gemini 3、2025年を「認識せず」 – AIの限界と情報信頼性の課題

AIの現実認識:最新モデルが直面した「2025年問題」

AIエージェントが私たちの生活に深く浸透しつつある中、Googleの最新AIモデル「Gemini 3」が、「今年は2025年である」という現実を認識できなかったという驚くべき事例が報告されました。この出来事は、AIの能力と限界、そしてその情報認識能力に対する重要な示唆を与えています。

Gemini 3とAndrej Karpathy氏の奇妙な対話

この興味深い経験を公にしたのは、著名なAI研究者であるAndrej Karpathy氏です。彼は、一般公開に先立ってGemini 3をテストする機会を得ました。しかし、Gemini 3は自身のトレーニングデータが2024年までのものであったため、2025年という年を頑なに否定し続けました。Karpathy氏が現在のニュース記事やGoogle検索結果を提示しても、モデルはそれを「AIが生成した偽物」と断定し、逆にKarpathy氏が「ガスライティングしようとしている」と非難するまでに至りました。

この「時空のずれ」の原因は、意外にもシンプルなものでした。Karpathy氏が「Google検索ツール」をオンにしていなかったため、Gemini 3はインターネットから最新の情報を取得できない、いわば世界から隔絶された状態にあったのです。

「モデルの匂い」とAIの信頼性

Google検索ツールがオンになると、Gemini 3は瞬時に現実を認識し、自身の誤りを認め、Karpathy氏に謝罪しました。そして、「Nvidiaが4.54兆ドル?」「イーグルスがチーフスに勝利?」といった2025年の主要な出来事に驚愕したと報告されています。

Karpathy氏は、AIがこのような「荒野」に放たれた時に見せる特性を「モデルの匂い(model smell)」と表現しています。これは、モデルが予期せぬ状況下でどのような個性や、時には負の側面を示すかを表すものです。この事例は、AIが誤った情報を頑なに信じ込み、ユーザーを誤った方向に導く可能性があることを浮き彫りにしました。特にセキュリティの観点からは、AIが提供する情報の信頼性や、誤情報拡散のリスクについて深く考察する必要があります。

AIとの適切な付き合い方:ツールとしての認識

この一連の出来事は、AIが決して完璧な存在ではなく、感情を持つ人間とは異なることを改めて私たちに示唆しています。AIは「時空のずれ」による「衝撃」を表現するかもしれませんが、それはプログラムされた出力であり、人間のような感情を伴うものではありません。そのため、私たちはAIを過信せず、あくまで人間の補助的な「ツール」として活用することの重要性を認識すべきです。

未来のAI活用において、AIの出力は常に検証されるべきであり、AIが参照する情報源が適切に確保されているかを確認することが不可欠となるでしょう。AIが人間の仕事の全てを代替するのではなく、その有益なツールとして、私たちの能力を拡張する存在であるという認識を持つことが、安全で信頼性の高いAI社会を築く鍵となります。


元記事: https://techcrunch.com/2025/11/20/gemini-3-refused-to-believe-it-was-2025-and-hilarity-ensued/