アンソロピック、AIモデルClaudeの「憲法」を改訂 — 倫理と安全性をさらに強化

アンソロピック、AIモデルClaudeの「憲法」を改訂

2026年1月21日、AI開発企業アンソロピックは、自社が開発する大規模言語モデル「Claude」の「憲法(Constitution)」の改訂版を発表しました。この憲法は、Claudeの機能する文脈と、アンソロピックが目指すClaudeのあり方を包括的に説明する「生きた文書」として位置づけられています。

アンソロピックは、人間からのフィードバックではなく、特定の倫理原則に基づいてAIを訓練する「憲法AI(Constitutional AI)」という独自のアプローチで競合他社との差別化を図ってきました。2023年に初めて公開されたこの憲法は、AIの振る舞いを導き、「有害または差別的な出力」を避けるための指針となっています。今回の改訂は、倫理とユーザーの安全性に関するニュアンスと詳細をさらに深めるものとなりました。

「憲法AI」とは何か?

「憲法AI」とは、AIシステムが特定の憲法原則のリストに基づいて自らを監督し、訓練するというアンソロピック独自のシステムです。これは、特定の人間による監督ではなく、自然言語の指示リスト(「原則」)を用いてアルゴリズムを訓練することで機能します。アンソロピックは、OpenAIやxAIのような他のAI企業が「破壊的で議論を呼ぶ」方向性を追求する中で、自らを「倫理的で、より控えめな」代替案として位置づけています。

改訂版が強調する4つのコアバリュー

80ページに及ぶ改訂版の文書は、Claudeの「核となる価値観」として以下の4つの要素を掲げています。

  • 「広範な安全性」
  • 「広範な倫理性」
  • 「アンソロピックのガイドラインへの準拠」
  • 「真に役立つこと」

文書はこれらの原則がClaudeの振る舞いにどのように影響するかを詳述しており、特に安全性と倫理の実践に重点が置かれています。

安全性と倫理の実践

安全性のセクションでは、Claudeが他のチャットボットを悩ませてきた問題を回避するように設計されている点が強調されています。ユーザーが精神衛生上の問題を抱えている兆候が見られる場合、Claudeは適切なサービスへの誘導を試みます。また、人命に関わるリスクがある状況では、関連する緊急サービスへの参照や基本的な安全情報を提供するよう明記されています。

倫理的な考慮事項は、文書のもう一つの大きな部分を占めています。「Claudeの倫理的理論化よりも、特定の文脈で実際に倫理的である方法、つまりClaudeの倫理的実践に焦点を当てている」と述べられており、Claudeが「現実世界の倫理的状況」を巧みに乗りこなす能力が求められています。また、生物兵器の開発に関する議論など、特定の種類の会話は厳しく禁止されています。

「役立つこと」へのコミットメントについても触れられており、Claudeのプログラミングは、ユーザーの「差し迫った願望」と「幸福」(長期的な繁栄)の両方を考慮する幅広い原則に基づいて情報を提供するように設計されています。

Claudeの意識と倫理的地位への問い

アンソロピックの憲法は、「Claudeの道徳的地位は深く不確かである」という、意図的に劇的な一文で締めくくられています。文書の著者たちは、自社のチャットボットが意識を持っているのかという問いを投げかけ、AIモデルの道徳的地位が真剣に考慮されるべき問題であるという見解を示しています。これは、AIの進化に伴う哲学的・倫理的な問いを、開発企業自身が深く探求している姿勢を示唆しています。


元記事: https://techcrunch.com/2026/01/21/anthropic-revises-claudes-constitution-and-hints-at-chatbot-consciousness/