OpenAI、Nvidiaを回避し、異例の高速コード生成モデルを発表

概要

OpenAIはこの木曜日、非Nvidiaハードウェア上で動作する初の生産用AIモデルであるGPT-5.3-Codex-Sparkをリリースしました。このモデルはコード生成速度が1,000トークン(データの単位)以上で、従来のモデルよりも約15倍速いと報告されています。

新モデルの特徴

Codex-Sparkは、Cerebras社の大型チップ「Wafer Scale Engine 3」上で動作します。このモデルは、コード生成に特化しており、一般的なタスクには対応していません。

性能と比較

  • Codex-Sparkは1,000トークン/秒で動作し、AnthropicのClaude Opus 4.6が高速モードで達成する速度(約2.5倍)を上回ります。
  • 独立系ベンチマークでは、OpenAIのNvidiaハードウェア上で動作するモデルは1,000トークン/秒には到達せず、GPT-4oが約147トークン/秒、o3-miniが約167トークン/秒、GPT-4o miniが約52トークン/秒となっています。

競争の激化

AIコード生成エージェントは今年大きな進展を遂げました。OpenAIとAnthropicは、モデルの速度を向上させることで開発者の作業効率を高めようとしています。

OpenAIとCerebrasのパートナーシップ

Codex-Sparkは、OpenAIとCerebrasが今年1月に発表したパートナーシップから生まれた最初の製品です。OpenAIはNvidiaへの依存を減らすために、AMDとの大規模な長期契約やAmazonとのクラウドコンピューティング契約を締結しています。

開発者への影響

1,000トークン/秒の速度は、開発者がコードエディタ内でAIからの提案を待つ時間を大幅に短縮します。ただし、速さが正確性を犠牲にする可能性もあります。


元記事: https://arstechnica.com/ai/2026/02/openai-sidesteps-nvidia-with-unusually-fast-coding-model-on-plate-sized-chips/