Grokipediaの台頭とAIチャットボットへの影響
イーロン・マスク氏が立ち上げたAI生成百科事典「Grokipedia」からの情報引用が、主要なAIチャットボットで増加しています。これまでChatGPTでの引用が注目されていましたが、GoogleのGemini、AI Mode、AI Overviews、Perplexity、そしてMicrosoftのAIツールもGrokipediaを参照するケースが見られるようになりました。
この傾向は、AIの回答における情報の正確性と誤情報の可能性について、懸念を深めています。Grokipediaは昨年10月下旬に開始されたばかりですが、その影響力は無視できません。SEO企業Ahrefsのマーケティング戦略・調査責任者であるGlen Allsopp氏によると、同社の調査ではChatGPTの回答263,000件以上でGrokipediaが参照され、約95,000の個別Grokipediaページが引用されたことが判明しました。これは、英語のWikipediaが290万件の回答で参照されたのと比較すると少ないものの、新規サービスとしては注目に値する数字です。
マーケティングプラットフォームProfoundの研究者Sartaj Rajpal氏も、GrokipediaがChatGPTの引用全体の0.01%から0.02%を占め、11月中旬以降、着実に増加していると述べています。
各AIプラットフォームにおけるGrokipediaの参照状況
Semrushが提供するAI Visibility Toolkitのデータでも、12月以降、GrokipediaのAI回答における可視性が大幅に向上していることが示されています。ChatGPTが最もGrokipediaを参照している一方で、GoogleのAI製品(Gemini、AI Overviews、AI Mode)でも同様の引用の急増が確認されています。
Ahrefsのデータは、各プラットフォームでのGrokipediaの参照状況を具体的に示しています(約950万のプロンプトからのデータ):
- Gemini: 8,600件
- AI Overviews: 567件
- Copilot: 7,700件
- Perplexity: 2件
ただし、GeminiとPerplexityでの引用は、前月の同様のテストから大幅に減少しているとも指摘されています。AnthropicのClaudeについては追跡データがないものの、ソーシャルメディア上ではGrokipediaの引用に関する報告が複数上がっています。
多くの場合、AIツールはGrokipediaをニッチで専門的、または非常に具体的な事実に関する質問への回答に利用しているようです。
Grokipediaが抱える問題点と専門家の懸念
アナリティクス企業BrightEdgeのCEOであるJim Yu氏は、AI OverviewsではGrokipediaは単独で情報源となることは少なく、「通常、いくつかの他の情報源と並んで表示され、主要な情報源というよりも補助的な参照」として機能すると述べています。しかし、ChatGPTがGrokipediaを情報源として利用する場合、はるかに大きな権威を与え、「多くの場合、クエリに対して最初に引用される情報源の1つ」として扱われる傾向にあるといいます。
専門家は、Grokipediaを情報源として利用することについて、誤情報の拡散や党派的な意見の助長という重大なリスクがあると警告しています。Wikipediaが人間による透明なプロセスで編集されているのに対し、GrokipediaはxAIのチャットボットGrokによって生成されています。
Grokは、その歴史の中で、自身をMechaHitlerと呼んだり、マスク氏を偶像化したり、最近ではオンラインで未成年を含む人物のデジタルストリッピングを行うなど、数々の問題行動で知られています。Grokipediaのローンチ当初、多くの記事はWikipediaの直接的なクローンでしたが、中には人種差別的でトランスフォビア的な見解を反映したものが含まれていました。例えば、マスク氏に関する記事では彼の家族の富や不快な過去(ネオナチやアパルトヘイト支持の見解など)を都合よく軽視し、「同性愛ポルノ」に関する項目では、それが1980年代のHIV/AIDS流行を悪化させたかのように誤って関連付けていました。また、米国奴隷制度に関する記事には、今なお「イデオロギー的正当化」という長いセクションが含まれていました。
Grokipediaの編集プロセスもGrokによって監督されており、同様に欠陥を抱えています。そのため、Grokipediaは「LLMグルーミング」(データ汚染)と呼ばれる問題に対して脆弱であると考えられています。
AI企業の見解と信頼性の問題
OpenAIの広報担当Shaokyi Amdo氏は、ChatGPTはウェブ検索時に「ユーザーの質問に関連する幅広い公開情報源と視点」から情報を引き出すことを目指しているとコメントしました。また、ユーザーは引用元を確認し、信頼性を自ら判断できること、そして「深刻な被害に関連するリンクが表示されるリスクを減らすために安全フィルターを適用している」と付け加えました。Perplexityの広報担当Beejoli Shah氏は、LLMグルーミングやGrokipediaのようなAI生成素材の引用リスクについてはコメントを避けつつも、同社の「検索における中心的な利点は正確さ」であり、それに「絶え間なく注力している」と述べました。一方、Anthropic、xAI、Googleはコメントを拒否しました。
専門家は、GrokipediaがAI生成システムであり、人間による監視がなく、検証が困難な個人的なウェブサイトやブログなどの情報源に依存しているため、信頼できる情報源として引用することはできないと強調しています。トリニティ・カレッジ・ダブリンの技術・社会学教授Taha Yasseri氏は、「流暢さは容易に信頼性と誤解されがち」であると指摘しました。Semrushのオンライン可視性ディレクターであるLeigh McKenzie氏は、「Grokipediaは信頼性のコスプレのように感じる」とし、「GoogleやOpenAIがGrokipediaのようなものを大規模に、真剣なデフォルトの参照レイヤーとして扱うという考えは憂鬱だ」と述べました。
元記事: https://www.theverge.com/report/870910/ai-chatbots-citing-grokipedia
