Microsoftは、AnthropicのAIモデルClaudeが国防総省を除く顧客向けに引き続き利用可能であることを確認しました。これは、トランプ政権の国防総省がAnthropicと対立を強めている中での発表です。
背景
Anthropicは、大規模な監視や完全自律型兵器などのAIが安全にサポートできないアプリケーションへの無制限アクセスを拒否したため、国防総省から供給チェーンリスクとして指定されました。この指定は通常、外国の敵対勢力に対してのみ適用されます。
影響
- 国防総省はAnthropicの製品を使用できなくなりました。
- 国防総省と取引を行う企業や機関は、Anthropicのモデルを使用していないことを証明する必要があります。
Anthropicは、この指定に対して法廷で争うことを誓っています。
Microsoftの対応
Microsoftは、自社の製品や顧客向けにAnthropicのモデルを引き続き利用可能とすることを確認しました。Microsoftのスポークスパーソンは、次のように述べています。
「私たちの法務チームは指定を研究し、Anthropicの製品、特にClaudeは、国防総省以外の顧客向けに引き続き利用可能であると結論付けました。これには、M365、GitHub、およびMicrosoftのAI Foundryを含むプラットフォームが含まれます。また、国防総省に関連しないプロジェクトでAnthropicと協力することも可能です。」
Anthropicの立場
AnthropicのCEOであるDario Amodeiは、次のように述べています。
「顧客に対する当該指定は、国防総省との契約の一環としてClaudeを使用する場合にのみ適用されます。国防総省との契約を持つ顧客が、その契約と関連しないClaudeの使用やAnthropicとのビジネス関係を制限するものではありません。」
消費者への影響
Anthropicが国防総省の要求に屈しなかったことで、Claudeの消費者向け利用は継続的に増加しています。
