Anthropic が米政府を提訴:Claude AI のリスク指定に対する反発

概要

AI開発会社のAnthropicは、米国政府に対して法的措置を講じました。AnthropicのAIモデル「Claude」が「供給チェーンリスク」として指定されたことを不服として、カリフォルニア連邦地方裁判所に提訴しました。

背景

AnthropicのCEOであるDario Amodeiは、国防省が軍事用の契約でAnthropicのAIモデルに無制限のアクセスを要求したことに反対しました。Amodeiは、AIモデルが「自動戦闘兵器」や「アメリカ市民の大規模監視」に使用されることを防ぐための安全対策を維持したいと主張しました。

争点

国防長官のPete Hegsethは、Anthropicがこれらの制限を撤回しない場合、同社を「供給チェーンリスク」と指定すると脅しました。この指定により、政府機関や連邦契約者はAnthropicのツールを使用できなくなりました。

政府の対応

ホワイトハウスのスポークスパーソンであるLiz Hustonは、Anthropicを「過激な左派企業」と呼び、軍が憲法を尊重するためには、企業の利用規約を無視する必要があると述べました。

Anthropicの主張

Anthropicは、政府の措置が同社の第一修正権を侵害していると主張しています。同社は、政府が無法な方法で企業を罰する行為を止めるよう裁判所に求めています。

経済的影響

政府の禁止措置により、Anthropicは数百万ドル規模の契約を失いました。しかし、Google、Meta、Amazon、Microsoftなどの主要なテクノロジー企業は、国防以外のプロジェクトでClaudeを使用を続けます。

業界の反応

AI業界は、政府の行動が自由な発言を抑制する「寒気」を引き起こしていると指摘しています。GoogleとOpenAIの従業員約40人は、Anthropicを支援する意見書を提出しました。彼らは、高度なAIシステムに対する技術的な保護が必要であると強調し、AIが大規模な監視や自律型兵器に使用されることを警告しました。

今後の展開

Anthropicは、裁判所に政府の措置を違憲と宣言し、リスク指定を撤回するよう求めています。法律学者のCarl Tobiasは、この案件が最高裁まで上訴される可能性があると予測しています。


元記事: https://gbhackers.com/anthropic-files-lawsuit-against-u-s-government/