はじめに
2026年春にリリースされるiOS 26.4アップデートでは、Appleのパーソナルアシスタント「Siri」が、大規模言語モデル(LLM)を基盤とした新バージョンへと抜本的に刷新されます。これは単なる改良に留まらず、ユーザーとの対話方法とSiriの能力を根本的に変えるものとなるでしょう。完全なチャットボットとまではいかないものの、現在のSiriからは想像できないほどの進化を遂げるとMacRumorsが報じています。
抜本的なアーキテクチャの刷新
次世代のSiriは、ChatGPT、Claude、GeminiといったLLMで使われているものと同様の高度な大規模言語モデル(LLM)を中核に採用します。これまでのSiriは、リクエストの意図を特定し、関連情報(時間、イベント、名前など)を抽出し、APIやアプリを使ってリクエストを完了させるために、複数のタスク固有モデルに依存するシステムでした。しかしiOS 26.4では、SiriはLLMコアを軸に構築され、単に音声をテキストに変換しキーワードを検索するだけでなく、ユーザーの質問の具体的な内容を理解し、推論を用いてタスクを完了させることが可能になります。
LLMによるSiriの進化
現在のSiriは、タイマー設定やテキストメッセージの送信、スマートホームデバイスの操作、簡単な質問への回答といった単純なタスクには対応できますが、複雑な多段階タスク、特定の言い回し以外の解釈、個人的な文脈の理解、フォローアップ質問への対応は困難でした。LLMの導入により、Siriは「脳」のようなものを手に入れ、これらの問題の大部分を解決すると期待されています。Siriはリクエストのニュアンスを理解し、ユーザーが本当に何を求めているのかを突き止め、情報提供や行動完了のためのステップを踏むことができるようになります。
AppleはiOS 18で「Apple Intelligence」機能として、Siriの以下の改善点を既に提示しています。
- パーソナルコンテキストの理解: メール、メッセージ、ファイル、写真などを追跡し、ユーザーに関する学習を深めることで、タスク完了を支援します。「先週Ericが送ってくれたファイルを見せて」「Ericがアイススケートについて言及したメールを探して」といったリクエストが可能になります。
- 画面内容の認識: ユーザーが見ている画面の内容をSiriが理解し、関連するアクションを完了させます。例えば、誰かから送られてきた住所をSiriに「連絡先に追加して」と頼んだり、写真を見ながら「これをEricに送って」と指示したりできます。
- アプリ間の深い統合: アプリ内およびアプリ間でより多くのことが可能になります。ファイルをアプリ間で移動したり、写真を編集して送信したり、「EricとETAを共有して」といった複雑な指示にも対応します。
開発の経緯と大規模な再編
2025年8月の全社員会議で、Appleのソフトウェアエンジニアリング責任者であるクレイグ・フェデリギ氏は、Siriの開発における問題を説明しました。当時のAppleは、既存のコマンド処理システムとLLMベースのシステムを統合しようとしましたが、Siriの既存アーキテクチャの制約によりハイブリッドアプローチが機能しませんでした。この経験から、LLMを中心とした第2世代アーキテクチャへのアップグレードが唯一の進むべき道と判断されました。
フェデリギ氏は会議で、「Siriのエンドツーエンドの刷新で我々が必要な結果を出せた」と述べ、当初iOS 18で発表されたものよりも「はるかに大規模なアップグレード」を提供できるようになったと語りました。
Siriデビューのつまずきとハイブリッドアーキテクチャの失敗は、AppleのAIチーム全体の再編を招きました。AI部門の責任者ジョン・ジャナンドレア氏はSiriのリーダーシップチームから外され、Vision Proの責任者であるマイク・ロックウェル氏が後任となりました。ジャナンドレア氏は2026年春に引退する予定です。フェデリギ氏は、この新しいリーダーシップがSiriの開発を「超高速化」したと従業員に語っています。
Google Geminiとの提携
Appleはこれまで自社開発のAIモデルに依存してきましたが、競合他社の能力に及ばないという問題に直面していました。Siriの開発が遅れた後、Appleはサードパーティモデルの利用を検討し始め、2026年1月にはGoogleとの複数年にわたるパートナーシップを発表しました。これにより、AppleのAI機能、特にSiriのパーソナライズされたバージョンは、GoogleのGeminiチームと共同で開発されたカスタムモデルを使用することになります。Appleは自社モデルの開発も継続する計画ですが、当面は多くの一般公開機能でGeminiに依存します。
iOS 26.4のSiriは、現在のSiriよりもGoogle Geminiに似たものになりますが、完全なチャットボット機能は搭載されません。Appleは引き続き、一部の機能をオンデバイスで実行し、「プライベートクラウドコンピューティング」を使用してプライバシーを維持する方針です。個人データはデバイス上に保持され、リクエストは匿名化され、AI機能を無効にすることも可能です。
iOS 26.4でのSiriの限界と今後の展望
iOS 26.4のSiriは、完全なチャットボットとして機能しないため、長期記憶や双方向の会話機能は搭載されません。また、限られた入力機能を持つ既存の音声ベースのインターフェースが引き続き使用される予定です。
しかし、AppleはiOS 27アップデートでSiriをさらにアップグレードし、本格的なチャットボットへと進化させる計画です。その際、SiriはClaudeやChatGPTのように、会話の文脈を理解し、双方向のやり取りに対応できるようになるでしょう。iOS 26.4は、この未来のSiriに向けた重要な一歩となります。
リリース時期と対応デバイス
新しいSiriが搭載されるiOS 26.4は、2026年春にリリースされる予定で、具体的には4月頃の登場が予想されています。iOS 26.4のテストは2月下旬から3月上旬に開始されると見られています。新しいSiriは、Apple Intelligenceをサポートするすべてのデバイスで動作すると考えられていますが、一部の機能は旧デバイスでも利用可能になる可能性があります。
元記事: https://www.macrumors.com/2026/02/06/siri-ios-26-4-rumors/
