新興企業Arcee AI、400BパラメータのオープンソースLLM「Trinity」でMetaのLlamaに対抗

新興企業Arcee AI、大規模オープンソースLLMを発表

AIモデル市場の主導権を大手テック企業が握ると見られる中、わずか30名からなる新興企業Arcee AIは、400Bパラメータの汎用基盤モデル「Trinity」を公開し、この見方に異議を唱えています。Trinityは、米国企業が訓練・リリースした中で最大級のオープンソース基盤モデルであり、特にApacheライセンスを採用することで、真に恒久的なオープンソースであることを強調しています。

Arcee AIは、TrinityがMetaのLlama 4 Maverick 400Bや、中国清華大学の高性能モデルであるZ.aiのGLM-4.5に匹敵すると主張しています。これらの比較は、最小限の追加訓練しか施されていないベースモデルを用いて実施されました。

Trinityの主な特徴と性能

最先端(SOTA)モデルと同様に、Trinityはコーディングや、エージェントのような多段階プロセスに適しています。現在のところテキストのみをサポートしていますが、Arcee AIのCTOであるルーカス・アトキンズ氏によると、ビジョンモデルが現在開発中であり、音声認識版もロードマップに載っているとのことです。

ベンチマークテストでは、Trinityのベースモデル(現在プレビュー版)が、コーディング、数学、常識、知識、推論の各テストにおいて、Llamaと互角、あるいは一部では上回る性能を示しています。

開発の背景と戦略

Arcee AIは、わずか6ヶ月間で総額2,000万ドルを投じ、2,048基のNvidia Blackwell B300 GPUを使用してTrinityを訓練しました。これは、同社がこれまでに調達した約5,000万ドルの一部に過ぎません。

Arcee AIの創業者兼CEOであるマーク・マクウェイド氏は、当初、同社はモデルのカスタマイズサービスを提供していましたが、顧客基盤の拡大に伴い、独自の基盤モデルの必要性を痛感したと述べています。特に、米国企業が中国由来のオープンモデルへの警戒感を抱いていること、そしてMetaのLlamaが「真のオープンソース」ではないという一部の懸念(Metaが管理するライセンスには商用利用や使用に関する但し書きがあるため)が、Trinity開発の大きな動機となりました。

モデルラインナップと今後の展開

Trinityは、昨年12月にリリースされた小規模モデルに続くものです。これには、26Bパラメータの「Trinity Mini」(ウェブアプリからエージェントまで幅広いタスクに対応する完全訓練済み推論モデル)と、6Bパラメータの「Trinity Nano」(小型ながら高性能を目指す実験モデル)があります。

「Trinity Large」は、以下の3つのフレーバーでリリースされる予定です。

  • Trinity Large Preview: 人間の指示に従うように訓練された、軽く後処理された指示モデル。一般的なチャット利用に適しています。
  • Trinity Large Base: 後処理されていないベースモデル。
  • TrueBase: 指示データや後処理が一切施されていないモデル。企業や研究者が独自のカスタマイズを行う際に、既存のデータや仮定を「巻き戻す」必要がありません。

Arcee AIは、最終的にTrinityのホスト型APIバージョンを競争力のある価格で提供する予定であり、ジェネラルリリースのモデルは今後6週間以内に提供される見込みです。Trinity MiniのAPI価格は0.045ドル/0.15ドルで、レート制限付きの無料ティアも利用可能です。同社は引き続き、後処理やカスタマイズオプションも提供していきます。


元記事: https://techcrunch.com/2026/01/28/tiny-startup-arcee-ai-built-a-400b-open-source-llm-from-scratch-to-best-metas-llama/