AWSが高性能AIチップ「Trainium3」を発表、Nvidiaとの互換性を持つ「Trainium4」のロードマップも公開

AWSが最新AIチップ「Trainium3」を発表:大幅な性能向上と省エネ性を実現

2025年12月2日(米国時間)、Amazon Web Services(AWS)は年次イベント「AWS re:Invent 2025」にて、自社開発のAI学習用チップの最新版「Trainium3」を発表しました。この第三世代チップは、既存のAIチップ市場に大きなインパクトを与える高性能と効率性を兼ね備えています。

Trainium3 UltraServerは、3ナノメートルのTrainium3チップとAWS独自のネットワーキング技術を搭載したシステムです。AWSによると、このシステムは第2世代チップと比較して、AI学習と推論において4倍以上の高速化4倍のメモリ容量を実現しています。さらに、数千台のUltraServerを連携させることで、最大100万個のTrainium3チップを統合でき、これは前世代の10倍の規模に当たります。各UltraServerは144個のチップを搭載可能です。

性能向上に加え、Trainium3はエネルギー効率の面でも優れており、前世代と比較して40%の電力効率向上を達成しています。これにより、AWSの顧客は運用コストを削減できると見込まれます。すでに、Anthropic、日本のLLM開発企業Karakuri、SplashMusic、Decartといった顧客がTrainium3を活用し、推論コストの大幅な削減に成功しているとのことです。

Nvidiaとの連携を視野に入れた次世代チップ「Trainium4」

AWSは、現在開発中の次世代AIチップ「Trainium4」のロードマップも披露しました。Trainium4は、さらなる性能向上を目指すとともに、NvidiaのNVLink Fusion高速チップ相互接続技術をサポートする予定です。

この互換性により、Trainium4を搭載したAWSシステムは、NvidiaのGPUと相互運用し、その性能を拡張できるようになります。これは、NvidiaのCUDA(Compute Unified Device Architecture)がAIアプリケーション開発における事実上の標準となっている現状において、非常に戦略的な動きと言えます。Trainium4システムの登場は、Nvidia GPUを念頭に設計された大規模なAIアプリケーションをAWSクラウドに誘致する大きなきっかけとなるでしょう。

Trainium4の具体的なリリース時期はまだ発表されていませんが、これまでの製品投入のサイクルを考えると、来年のre:Inventで詳細が明らかになる可能性が高いと見られています。

AWSのAIチップ戦略と市場への影響

今回のTrainium3の発表とTrainium4のロードマップ公開は、AWSがAIチップ市場において、単なる追随者ではなく、独自の強力なエコシステムを構築しようとしている姿勢を示しています。自社開発チップによるコスト効率と性能の最適化に加え、Nvidiaとの互換性を通じてより幅広い顧客層を取り込む戦略は、クラウドAIインフラ市場における競争をさらに加速させることになりそうです。


元記事: https://techcrunch.com/2025/12/02/amazon-releases-an-impressive-new-ai-chip-and-teases-a-nvidia-friendly-roadmap/