OpenAIが「Trusted Access」でサイバーセキュリティを強化
OpenAIは、サイバーセキュリティ防御を強化し、その最先端AIモデルがもたらす潜在的なリスクを軽減するために、新しいアイデンティティおよび信頼ベースのフレームワーク「Trusted Access for Cyber」を発表しました。この取り組みの中心となるのは、OpenAIの最もサイバー能力の高いフロンティア推論モデルであるGPT-5.3-Codexです。このモデルは、複雑なセキュリティタスクを完了するために自律的に数時間から数日間運用することができます。
AIによる防御能力の向上と両義性の課題
新しいシステムは、AIを活用したサイバーセキュリティツールの大きな進化を意味します。以前のモデルはコードスニペットの自動補完しかできませんでしたが、GPT-5.3-Codexはシステム全体の脆弱性発見と修正を加速させることができます。これにより、セキュリティ専門家は洗練された標的型攻撃をより効果的に検知、分析、防御できるようになります。
しかし、OpenAIはこれらの能力の「デュアルユース」の性質も認識しています。防御者が悪意のある行為者を発見するのに役立つ同じツールが、脆弱性を悪用するためにも使用される可能性があります。例えば、「私のコードの脆弱性を見つけてほしい」というリクエストは、正当なセキュリティテストと悪用目的のどちらにもなり得るため、曖昧さが課題となります。
厳格な多層検証システムと安全対策
これらの懸念に対処するため、OpenAIは多層検証システムを導入しています。
- 個人ユーザー: chatgpt.com/cyberで身元を確認することで、サイバーセキュリティ機能にアクセスできます。
- 企業組織: OpenAIの担当者を通じて、セキュリティチーム全体のTrusted Accessをリクエストできます。
- セキュリティ研究者: より多くのアクセスを必要とする場合は、高度な防御作業のための招待制プログラムに応募できます。
このフレームワークには、組み込みの安全対策が含まれています。GPT-5.3-Codexは、資格情報の窃盗など、明確に悪意のあるリクエストを拒否するよう訓練されています。また、自動化された分類器ベースのモニターが、疑わしいサイバーアクティビティパターンを継続的に検知します。これらの保護機能は、以下の禁止行為を防止することを目的としています。
- データ持ち出し
- マルウェアの作成または展開
- 不正なテスト
サイバーセキュリティ助成プログラムと今後の展望
防御側の導入を加速させるため、OpenAIはサイバーセキュリティ助成プログラムを通じて、対象となるチームに1000万ドルのAPIクレジットを提供します。このプログラムは、オープンソースソフトウェアや重要インフラシステムの脆弱性特定と修正において実績のあるチームを対象としています。
OpenAIは、初期参加者からのフィードバックに基づいてTrusted Accessフレームワークを洗練させる計画です。同社は、すべてのユーザーがアクセスレベルに関係なく、既存の利用規約およびポリシーを遵守する必要があることを強調しています。この取り組みは、高度なAI能力がサイバー防御を強化し、潜在的な誤用リスクを最小限に抑えるというOpenAIのコミットメントを反映しています。
