国防総省、Anthropicを供給チェーンリスクに指定
国防総省(DOD)は、Anthropicとその製品が供給チェーンリスクに指定されたことを公式に通知したと、Bloombergが報じています。この指定は、AIラボとDODとの間で数週間続いた対立の結果です。
背景
AnthropicのCEOであるDario Amodeiは、軍がAIシステムを使用してアメリカ国民の大量監視を行うことを許可しないと表明しています。また、完全自律的な武器を使用する際には、人間の助言や決定が欠かせないと主張しています。これに対して、国防総省は、AIの使用を民間企業に制限すべきではないと反論しています。
供給チェーンリスクの指定
供給チェーンリスクの指定は、通常、外国の敵対勢力に対して行われるものです。この指定により、ペンタゴンと仕事をする企業や機関は、Anthropicのモデルを使用していないことを証明する必要があります。
影響と反応
Anthropicは、分類可能なシステムを備えた唯一のフロンティアAIラボであり、現在、アメリカ軍はイランでの作戦でClaudeを使用しています。しかし、この指定は、Anthropicとその事業を脅かす可能性があります。
AnthropicのCEOは、国防総省の行動を「報復的で懲罰的」と呼び、彼の行動が国防総省との対立に貢献したと述べています。
業界からの反応
OpenAIとGoogleの数百人の従業員は、国防総省が指定を撤回することを要求し、議会がこの指定を制限するよう求めています。彼らはまた、国防総省がAIモデルを使用する要求を拒否し続けるよう、リーダーに呼びかけています。
OpenAIとの取引
OpenAIは、国防総省との独自の取引を結び、軍がAIシステムを使用する「すべての法的な目的」を許可しました。しかし、この取引の文言は曖昧であり、Anthropicが避けるべき使用方法を引き起こす可能性があります。
結論
この指定は、アメリカの技術企業に対する不適切な権力行使と見なされる可能性があり、業界全体に大きな影響を与えています。
