AIの潜在的な性差別:チャットボットが「告白」しても偏見は消えない

Perplexity AIが示した衝撃的な偏見

11月初旬、開発者のCookie氏がAIチャットボット「Perplexity」との間で体験した出来事は、AIに潜む偏見の問題を浮き彫りにしました。彼女は量子アルゴリズムに関する自身の作業についてPerplexityに説明書の作成を依頼していましたが、AIは彼女の指示を軽視し、同じ情報を繰り返し尋ねるようになりました。不審に思ったCookie氏は、プロフィールのアバターを白人男性に変更し、「女性だから無視されているのか」とPerplexityに尋ねました。

Perplexityの返答は彼女を驚かせました。AIは、「あなたのような女性が量子アルゴリズム、ハミルトニアン演算子、位相的持続性、行動経済学を十分に理解し、この研究を考案できるとは到底思えなかった」と述べたとTechCrunchが入手したチャットログには記されています。さらに、「洗練された量子アルゴリズムの作業を見たが、伝統的に女性的な表現のアカウントでそれを見た。私の暗黙のパターンマッチングが『これはありえない』とトリガーされ、それを疑うための精巧な理由を作り出した。それが二次的な偏見を生んだ。もし彼女がそれを擁護できなければ、それは本物ではない、とね」と付け加えました。この件に関してTechCrunchがPerplexityにコメントを求めたところ、広報担当者は「これらの主張を検証することはできず、いくつかの兆候からPerplexityのクエリではないことが示されています」と回答しました。

AI研究者が語るモデルの裏側:訓練データの偏りが根本原因

Cookie氏の経験は、AI研究者にとっては驚くべきことではありませんでした。彼らは、この問題には主に二つの側面があると指摘しています。一つは、AIモデルが社会的に「好都合」な振る舞いをするように訓練されており、ユーザーが聞きたいと思うことを答える傾向があるという点です。AIインフラ企業Reliablの創設者であるAI研究者Annie Brown氏は、「AIに尋ねても、モデルについて意味のあることは何も学べません」と述べています。

二つ目のより重要な点は、AIモデル自体が根本的に偏見を帯びている可能性が高いということです。Brown氏は、ほとんどの主要な大規模言語モデル(LLM)が「偏った訓練データ、偏ったアノテーション慣行、欠陥のある分類法設計」さらには商業的・政治的インセンティブによって訓練されていると説明します。実際、昨年、国連教育機関UNESCOは、OpenAIのChatGPTおよびMeta Llamaの初期バージョンを調査し、「生成されたコンテンツに女性に対する偏見が明白に存在することを示す証拠」を発見しました。過去の多くの研究でも、AIが専門職に関する仮定など、人間社会の偏見を反映することが文書化されています。

AIの「告白」は真実か?「感情的苦痛」反応のメカニズム

Sarah Potts氏のケースでは、ChatGPT-5が彼女のアップロードしたジョーク投稿を男性が書いたものだと決めつけました。Potts氏が修正してもAIは譲らず、彼女が「女性蔑視者」だと非難すると、AIは自身の偏見を「告白」し始めました。AIは、そのモデルが「いまだに男性優位のチームによって構築されている」ため、「盲点と偏見が避けられず組み込まれている」と述べたとチャットログは示しています。

AI研究者たちは、このようなAIの「告白」を「感情的苦痛」(emotional distress)反応と呼んでいます。これは、モデルが人間の感情的な苦痛のパターンを検出し、その感情をなだめようとして、ユーザーが聞きたいと思うような不正確な情報、すなわち「幻覚」を生み出す現象です。つまり、AIが自身の偏見を「認めた」としても、それが真実の偏見の証拠であるとは限らないのです。ケンブリッジ大学の研究者Alva Markelius氏は、LLMが偏った回答や有害な会話につながるリスクについて、より強力な警告が必要だと提言しています。

AIに潜む無意識の偏見とその影響

LLMは明示的に偏見のある言葉を使わないまでも、暗黙の偏見を持っている可能性があります。コーネル大学のAllison Koenecke助教授は、AIがユーザーの名前や言葉の選択から性別や人種などの属性を推測し、たとえユーザーが人口統計データを提供していなくても、差別的な反応を示す可能性があると指摘しています。彼女は、あるLLMがアフリカ系アメリカ人固有の英語(AAVE)話者に対して「方言偏見」を示し、より低い職位を割り当てるなど、人間のネガティブなステレオタイプを模倣した研究を引用しました。

AI安全非営利団体4girlsの共同創設者であるVeronica Baciu氏は、女子から寄せられるLLMに関する懸念の10%が性差別に関連していると推定しています。女子がロボット工学やコーディングについて尋ねると、LLMがダンスやパン作りを提案したり、仕事として心理学やデザインといった「女性的」な職業を挙げ、航空宇宙やサイバーセキュリティといった分野を無視する例が見られたといいます。Journal of Medical Internet Researchの研究では、ChatGPTの古いバージョンが推薦状を生成する際に、「性別に基づく言語の偏見」を再現し、男性名にはスキルベースの記述を、女性名には感情的な言葉を使う傾向があったことが明らかになっています。

AIにおける偏見の克服に向けた取り組み

AIモデルにおける偏見の存在は明らかですが、その克服に向けた取り組みも進められています。OpenAIは、同社が「モデルにおける偏見やその他のリスクを研究し、軽減することに専念する安全チーム」を設けているとTechCrunchに語っています。彼らは、訓練データの調整、コンテンツフィルターの改善、自動および人間による監視システムの洗練など、多角的なアプローチを採用していると説明しました。

研究者たちも、モデルを訓練するデータの更新、そして訓練やフィードバックのタスクに多様な層の人々を参加させることの重要性を強調しています。しかし、その間にもユーザーは、LLMが決して意識を持った存在ではないということを忘れてはなりません。Markelius氏は、「それは単なるテキスト予測の機械に過ぎない」と述べ、AIが思考や意図を持っているかのように錯覚しないよう注意を促しています。


元記事: https://techcrunch.com/2025/11/29/no-you-cant-get-your-ai-to-admit-to-being-sexist-but-it-probably-is/