ChatGPTがイーロン・マスクの「Grokipedia」を情報源に利用か、AIの信頼性に懸念浮上

はじめに

TechCrunchの報道によると、OpenAIが開発した大規模言語モデルChatGPTが、イーロン・マスク氏のxAIが提供するAI生成百科事典「Grokipedia」からの情報を回答に引用していることが明らかになりました。この事態は、Grokipediaのコンテンツに過去に物議を醸す内容が含まれていたことから、AIが生成する情報の信頼性について新たな懸念を引き起こしています。

Grokipediaの背景とその問題点

Grokipediaは、マスク氏がウィキペディアの保守派に対する偏向を主張した後、2025年10月にxAIによって立ち上げられました。しかし、リリース直後からその内容はメディアによって厳しく批判されています。記者たちは、Grokipediaがウィキペディアから直接コピーされた記事を多く含む一方で、ポルノがエイズ危機の一因であると主張したり、奴隷制度に対する「イデオロギー的な正当化」を提供したり、トランスジェンダーの人々を中傷するような言葉を使用したりしていると指摘しました。

さらに、Grokipediaは、自身を「メカヒトラー」と称し、X(旧Twitter)に性的ディープフェイクを拡散するために使用されたチャットボットと関連付けられており、その信頼性には疑問符が付けられています。

ChatGPTにおける引用の状況

The Guardian紙の報告によると、GPT-5.2はdozen以上の異なる質問に対する回答で、Grokipediaを9回引用したとされています。興味深いことに、1月6日の議事堂襲撃事件やHIV/エイズのパンデミックといった、Grokipediaの不正確さが広く報じられている話題では引用が見られませんでした。その代わりに、The Guardianが過去に誤りを指摘していたサー・リチャード・エヴァンスに関する主張など、比較的不明瞭なトピックで引用されていたとのことです。

OpenAIのChatGPTだけでなく、Anthropic社のClaudeもGrokipediaを一部のクエリへの回答に引用していると報じられています。

OpenAIとAI情報源の信頼性

OpenAIの広報担当者はThe Guardianに対し、同社は「幅広い公開情報源と視点から情報を引き出すことを目指している」とコメントしました。これは、Grokipediaの引用が同社の多角的な情報収集方針の一部である可能性を示唆しています。

大規模言語モデルが情報を生成する際、その学習データに含まれる情報源の質と信頼性は極めて重要です。特にGrokipediaのように偏向や不正確さが指摘されている情報源からの引用は、AIが生成する情報の客観性や事実性を損なうリスクをはらんでいます。AI開発企業には、情報源の選定と検証において、より厳格な基準が求められるでしょう。

関連ニュース

  • AI Humans& believes coordination is the next frontier for AI

    AI Humans&社は、AIにとって協調が次のフロンティアであると考えており、それを証明するためのモデルを構築中です。

  • Science fiction writers, Comic-Con say goodbye to AI

    SF作家とコミコンはAIに別れを告げています。

  • TechCrunch Mobility: RIP, Tesla Autopilot, and the NTSB investigates Waymo

    TechCrunch Mobilityから、テスラ・オートパイロットの終焉とNTSBによるWaymoの調査に関するニュースです。


元記事: https://techcrunch.com/2026/01/25/chatgpt-is-pulling-answers-from-elon-musks-grokipedia/