背景
Anthropicは、国防総省(DoD)からの供給チェーンリスク指定に対抗して、訴訟を起こしました。この指定は、通常、国家安全保障上の潜在的なリスクを抱えると見なされる外国企業に対して行われるものです。Anthropicは、自社の技術が軍事利用で使用される際の適切な使用ケースについて2つの「赤線」を設けており、その中には国内の大規模監視と完全自律型兵器(人間の介入なしに殺傷能力を持つAIシステム)が含まれています。
訴訟への支援
Anthropicの訴訟に対する支援は、OpenAIとGoogleから約40人の従業員が連名で提出した友好的な意見書(amicus brief)を通じて行われました。この意見書には、Googleの最高科学者でありGeminiのリードであるJeff Dean氏も含まれています。
意見書の主張
この友好的な意見書は、Anthropicの供給チェーンリスク指定が「不当な報復であり、公共の利益を害する」と主張しています。また、Anthropicの「赤線」に対する懸念が「現実的であり、対応が必要である」とも述べています。
AIのリスク
意見書は、AIが国内の大規模監視や完全自律型兵器の操作に使用される際のリスクについて詳しく説明しています。
- 国内の大規模監視: アメリカ市民のデータはあらゆる形で存在していますが、AIがそれらを統合し、リアルタイムの監視装置に変換する能力がまだ存在しないと指摘しています。
- 完全自律型兵器: 自律型兵器は、訓練された環境とは異なる新しいまたは不明確な状況で信頼性が欠け、人間が決定を下すプロセスに介入する必要があると主張しています。
結論
意見書の提出者たちは、「今日のフロンティアAIシステムが国内の大規模監視や完全自律型兵器の操作に使用される際のリスクを示しており、そのリスクに対処するための何らかの規制が必要である」と結論付けています。
