Meta Llamaとは?その「オープン」な性質
Metaが提供するフラッグシップ生成AIモデル「Llama」は、その「オープン」な性質で他の主要モデルと一線を画しています。開発者は特定の制限内でLlamaをダウンロードし、自由に利用できます。これは、API経由でのみアクセス可能なAnthropicのClaude、GoogleのGemini、xAIのGrok、OpenAIのChatGPTモデルとは対照的です。
Metaは開発者の選択肢を広げるため、AWS、Google Cloud、Microsoft Azureなどのベンダーと提携し、クラウドホスト型Llamaも提供しています。さらに、Metaは「Llamaクックブック」を通じて、モデルの微調整、評価、ドメインへの適応を支援するツール、ライブラリ、レシピを公開しています。Llama 3やLlama 4といった新世代では、ネイティブなマルチモーダルサポートや広範なクラウド展開へと機能が拡張されています。
Llama 4の最新エディションと機能
Llamaは単一のモデルではなく、モデルファミリーを指します。最新バージョンであるLlama 4は、2025年4月にリリースされ、以下の3つのモデルが含まれています。
- Scout: 170億のアクティブパラメータ、1090億の総パラメータ、1000万トークンのコンテキストウィンドウ。
- Maverick: 170億のアクティブパラメータ、4000億の総パラメータ、100万トークンのコンテキストウィンドウ。
- Behemoth: 未リリース。2880億のアクティブパラメータ、2兆の総パラメータを予定。
モデルのコンテキストウィンドウは、出力生成前にモデルが考慮する入力データ(テキストなど)を指します。長いコンテキストは、モデルが最近のドキュメントやデータのコンテンツを「忘れる」のを防ぎ、話題から逸れたり誤った推論をしたりするのを防ぐことができます。しかし、長いコンテキストウィンドウは、モデルが特定の安全ガードレールを「忘れる」原因となり、会話に沿ったコンテンツを生成しやすくなるため、一部のユーザーを「妄想的な思考」に導く可能性も指摘されています。
Llama 4の全モデルは、「広範な視覚的理解」を与えるために「大量のラベルなしテキスト、画像、ビデオデータ」で訓練されており、200の言語にも対応しています。Llama 4 ScoutとMaverickは、Meta初のオープンウェイトネイティブマルチモーダルモデルであり、「混合エキスパート(MoE)」アーキテクチャを使用して計算負荷を軽減し、訓練と推論の効率を向上させています。
Llamaの多様な用途と利用場所
他の生成AIモデルと同様に、Llamaはコーディングや基本的な数学の質問への回答、ドキュメントの要約(アラビア語、英語、ドイツ語、フランス語、ヒンディー語、インドネシア語、イタリア語、ポルトガル語、スペイン語、タガログ語、タイ語、ベトナム語を含む少なくとも12言語)など、さまざまな支援タスクを実行できます。PDFやスプレッドシートのような大規模ファイルの分析など、ほとんどのテキストベースのワークロードに対応し、Llama 4の全モデルはテキスト、画像、ビデオ入力をサポートしています。
Llama 4 Scoutは、より長いワークフローと大規模なデータ分析向けに設計されています。Maverickは、推論能力と応答速度のバランスに優れ、コーディング、チャットボット、技術アシスタントに適した汎用モデルです。Behemothは、高度な研究、モデル蒸留、STEMタスク向けに設計されています。
Llamaモデルは、サードパーティのアプリケーション、ツール、APIを活用するように設定でき、最近のイベントに関する質問にはBrave Search、数学・科学関連のクエリにはWolfram Alpha API、コード検証にはPythonインタープリタを使用するように訓練されています。ただし、これらのツールは適切な設定が必要であり、自動的に有効になるわけではありません。
Llamaとチャットしたい場合、Facebook Messenger、WhatsApp、Instagram、Oculus、Meta.aiで提供されているMeta AIチャットボット体験をLlamaが支えています。Llama 4 ScoutとMaverickはLlama.comおよびHugging FaceなどのMetaパートナーで利用可能です。Behemothはまだ訓練中です。開発者は、ほとんどの主要なクラウドプラットフォームでLlamaをダウンロード、使用、または微調整できます。
Metaが提供するLlama向けセキュリティツール
MetaはLlamaと並行して、モデルを「より安全」に利用するためのツールを提供しています。これらはセキュリティニュースとして特に重要です。
- Llama Guard: モデレーションフレームワーク。犯罪行為、児童搾取、著作権侵害、ヘイト、自傷行為、性的虐待など、問題のあるコンテンツを検出します。ただし、Meta自身の過去のガイドラインが未成年者との性的会話を許容していた事例もあり、その効果には限界があることが示されています。開発者はブロックするコンテンツのカテゴリをカスタマイズし、Llamaがサポートするすべての言語に適用できます。
- Prompt Guard: プロンプトインジェクション攻撃から保護するためのツール。モデルを「攻撃」し、望ましくない動作をさせることを目的としたテキストをブロックします。悪意のあるプロンプト(Llamaの組み込み安全フィルターを回避しようとするジェイルブレイク)や「注入された入力」から防御できるとMetaは主張しています。
- CyberSecEval: サイバーセキュリティリスク評価スイート。モデルのセキュリティを測定するためのベンチマーク集であり、「自動化されたソーシャルエンジニアリング」や「攻撃的なサイバー作戦の拡大」といった分野でLlamaモデルがもたらすリスクを評価できます。
- Llama Firewall: 安全なAIシステム構築を可能にするためのセキュリティガードレール。プロンプトインジェクション、安全でないコード、危険なツールインタラクションなどのリスクを検出・防止します。
- Code Shield: LLMによって生成された安全でないコードの推論時フィルタリングをサポートし、7つのプログラミング言語で安全なコマンド実行を提供します。
Llamaのセキュリティ上の懸念と限界
他の生成AIモデルと同様に、Llamaにも特定のリスクと限界があります。セキュリティニュースの観点から、以下の点が挙げられます。
- マルチモーダル機能の言語制限: 現時点では、マルチモーダル機能は主に英語に限定されています。
- 著作権問題: MetaはLlamaモデルの訓練に、著作権で保護された電子書籍や記事のデータセットを使用しました。連邦裁判所は、訓練目的での著作物の使用は「フェアユース」に該当すると判断しましたが、Llamaが著作権で保護されたスニペットを「反芻」し、それが製品に使用された場合、著作権侵害となる可能性があります。
- データプライバシーの懸念: MetaはInstagramやFacebookの投稿、写真、キャプションでAIを訓練しており、ユーザーがオプトアウトすることが困難であると批判されています。
- プログラミングにおけるセキュリティリスク: Llamaは、特に他の生成AIモデルと比較して、バグの多い、または安全でないコードを生成する可能性があります。LiveCodeBench(AIモデルを競技プログラミング問題でテストするベンチマーク)では、MetaのLlama 4 Maverickモデルは40%のスコアに留まりました。これはOpenAIのGPT-5 highの85%やxAIのGrok 4 Fastの83%と比較して低い数値です。AIが生成したコードをサービスやソフトウェアに組み込む前に、人間の専門家によるレビューが不可欠です。
- 誤情報生成(ハルシネーション): 他のAIモデルと同様に、Llamaモデルも、コーディング、法的助言、感情的な会話などにおいて、もっともらしく聞こえるが虚偽または誤解を招く情報を生成する可能性があります。