概要
AI Anthropicは、開発者がAIモデルを安全に操作できるようにするための最新アップデートを実装しました。この新機能「Auto mode」では、AIが自己決定で安全なアクションを自動的に実行し、リスクのあるアクションはブロックします。
背景
AI Anthropicは、「vibe coding」と呼ばれる開発者の作業環境において、現在の選択肢は「手動で全てのアクションを監視するか、モデルに無制限な権限を与える」のどちらかです。この状況に対応して、Anthropicは最新のアップデートによりAIが自己決定で安全なアクションを実行できるようにしました。
新機能「Auto mode」
Auto modeは現在研究用プレビュー版として提供されており、AIが各アクションの安全性をチェックし、リスクのある行動や悪意のある指示(プロンプトインジェクション)をブロックします。安全なアクションは自動的に実行されますが、リスクがあるものは停止されます。
機能の詳細
Auto modeは、既存の「dangerously-skip-permissions」コマンドを拡張し、安全性を確保するレイヤーを追加しています。これにより、ユーザーが許可を求めるタイミングをAIに委ねることができます。
実装と注意点
- Anthropicは、この機能の具体的な安全基準について詳細を明らかにしていません。
- Auto modeは現在、Claude Sonnet 4.6およびOpus 4.6で動作します。
- 新機能は「isolated environments」(隔離された環境)でのみ推奨されます。これは生産システムから切り離されたセットアップであり、何かがうまくいかない場合の潜在的な被害を最小限に抑えます。
元記事: https://techcrunch.com/2026/03/24/anthropic-hands-claude-code-more-control-but-keeps-it-on-a-leash/
