Anthropic、AIエージェントの新たな一歩「Claude Cowork」を発表
AI開発企業のAnthropicは、同社のAIチャットボット「Claude」のAIエージェント機能をさらに拡張する新機能「Claude Cowork」を発表しました。この機能は、特にプログラミング以外のタスクにおいて、より利用しやすい形でClaudeの能力を活用することを目指しています。現在、研究プレビュー版としてmacOSアプリのClaude Maxサブスクライバー(月額100ドルから200ドル)向けに提供されています。
「Claude Cowork」の仕組みと機能
Claude Coworkは、ユーザーがClaudeにコンピューター上の特定のフォルダーへのアクセスを許可することで機能します。これにより、Claudeは以下の様々なタスクを自動的に実行できるようになります。
- ダウンロードファイルを分類し、名前を変更して整理する
- 複数のスクリーンショットから経費リストを含む新しいスプレッドシートを作成する
- 散らばったメモからレポートの初稿を作成する
また、Claudeは作業の進捗状況を定期的に報告し、ユーザーはAsana、Notion、PayPalなどの外部サービスと連携させたり、ブラウザ関連のタスクのためにClaude in Chromeと連携させたりすることも可能です。
ユーザー体験の変革と「Skills for Claude」との関連
Anthropicは、この新機能によってユーザーが手動で常にコンテキストを提供したり、Claudeの出力を正しい形式に変換したりする必要がなくなると説明しています。ユーザーはタスクをキューに入れ、Claudeがそれらを並行して処理できるため、まるで「同僚にメッセージを残す」かのような体験が可能になります。
この機能は、昨年10月に発表された「Skills for Claude」の発展形とも言えます。「Skills for Claude」は、指示、スクリプト、リソースを含むフォルダーを通じて、ClaudeがExcel作業や組織のブランドガイドラインへの準拠など、特定の業務タスクをよりスマートにこなせるようにするものでした。
AIエージェントの安全性と今後の課題
Anthropicは、Coworkやその他のAIエージェントツールが持つ潜在的な危険性についても警告しています。指示が不明確な場合、Claudeがローカルファイルを削除するなど「破壊的な行動」をとる可能性があり、プロンプトインジェクション攻撃によって、モデルの保護機能が迂回され、有害な行動を引き起こす可能性も指摘されています。
Anthropicは、「エージェントの安全性、つまりClaudeの現実世界での行動を保護するタスクは、業界においてまだ活発な開発分野である」と述べており、AIエージェント技術の進化に伴う安全性確保の重要性を強調しています。
