Microsoft、AI推論向け次世代チップ「Maia 200」を発表 – NVIDIA依存脱却と効率化へ

Microsoft、AI推論チップ「Maia 200」を発表

Microsoftは、AI推論を大規模に実行するための次世代AIチップ「Maia 200」を発表しました。これは、2023年にリリースされたMaia 100の後継モデルであり、より高速かつ効率的なAIモデルの実行を可能にするとされています。

Maia 200の性能と特徴

Maia 200は、1,000億個以上のトランジスタを搭載し、4ビット精度で10ペタフロップス以上、8ビット精度で約5ペタフロップスの性能を提供します。これは、前モデルから大幅な性能向上を果たしています。Microsoftは、「1つのMaia 200ノードで、今日の最大のモデルを難なく実行でき、将来のさらに大きなモデルにも十分な余裕がある」と述べています。

AI推論市場における重要性

AI業界が成熟するにつれて、モデルの学習に必要な計算能力だけでなく、推論(モデルを実行するプロセス)のコストが運用コストにおいて重要な部分を占めるようになっています。Maia 200は、この推論プロセスを最適化し、AIビジネスの稼働をよりスムーズに、かつ消費電力を抑えて行うことを目指しています。

競合他社との比較とMicrosoftの戦略

Microsoftの新たなチップは、テクノロジー大手各社がNVIDIAへの依存度を減らすために自社設計チップに注力する動きの一環でもあります。GoogleのTPUやAmazonのTrainiumなどがその例です。MicrosoftはMaia 200が競合製品と比較して優れた性能を持つと強調しており、

  • 第3世代Amazon Trainiumチップの3倍のFP4性能
  • Googleの第7世代TPUを超えるFP8性能

を実現すると主張しています。Maia 200は既にMicrosoftのAIモデルやCopilotの運用を支えており、開発者、学者、フロンティアAI研究所向けにソフトウェア開発キット(SDK)も提供されています。

今後の展望

Maia 200の登場は、MicrosoftがAIインフラにおける自律性を高め、AIサービス提供の効率化を推進する上で重要な一歩となります。これにより、より多くの企業がAI技術を導入しやすくなり、AI業界全体の成長をさらに加速させることが期待されます。


元記事: https://techcrunch.com/2026/01/26/microsoft-announces-powerful-new-chip-for-ai-inference/