iOS 27でSiriが本格的なチャットボットへ進化
AppleはSiriの大きなアップグレードを計画しており、2026年6月にもiOS 27でSiriが本格的なチャットボットとして登場する可能性が高いです。これまでのSiriは基本的な質問応答や単純なタスクの実行に留まっていましたが、iOS 27では双方向の会話、多段階タスクの支援、複雑な質問への対応が可能になると見られています。
近年、ClaudeやChatGPTといったチャットボットが急速に普及したことで、Appleもこの流れを無視できなくなり、AI機能をアプリや機能に単に追加するだけでは競争力を維持できないと判断したようです。
Siriのシステムレベル統合とインターフェース
BloombergのMark Gurman氏によると、Siriのチャットボット機能はApple製品のシステムレベルに「深く組み込まれる」とのこと。Siriは単独のアプリではなく、既存のSiriと同様にiOS、iPadOS、macOSに統合されます。ユーザーはこれまで通り「Hey Siri」と呼びかけるか、Siri対応デバイスのサイドボタンを押すことで起動でき、音声とテキストの両方のリクエストに対応します。
新しいSiriのインターフェースについてはまだ明らかになっていませんが、OpenAIやAnthropic、Googleといった競合他社が提供するような、会話履歴やファイル・画像のアップロード機能を含む本格的なテキストインターフェースの実現には、Siriの現在のミニマリスティックなデザインからの大きな変更が必要となるでしょう。
Siriチャットボットの主な機能
Siriチャットボットは、既存のチャットボットが提供するほとんどの機能を網羅し、さらに多くのことができるようになると予想されています。具体的な機能には以下が含まれます。
- ウェブ情報の検索
- 画像の生成
- コンテンツの生成
- 情報の要約
- アップロードされたファイルの分析
- 個人データを利用したタスクの完了
- メール、メッセージ、ファイルなどからの情報取り込み
- 開いているウィンドウや画面コンテンツの分析によるアクション実行
- デバイス機能と設定の制御
- デバイス内コンテンツの検索(Spotlightの代替)
また、SiriはMail、Messages、Apple TV、Xcode、PhotosといったAppleのコアアプリに深く統合され、特定の画像の検索、写真の編集、コーディング支援、TV番組や映画の提案、メール送信などが可能になるでしょう。
iOS 26.4「LLM Siri」とiOS 27「チャットボットSiri」の違い
iOS 26.4では、大規模言語モデル(LLM)に基づく新しいSiriが先行して導入され、継続的な会話や人間らしい応答、パーソナライゼーション機能が提供されます。しかし、完全なチャットボット機能はiOS 27からとなる見込みです。iOS 26.4で期待されるLLM Siriの機能は以下の通りです。
- パーソナルコンテキスト:メール、メッセージ、ファイル、写真などからユーザーの情報を学習し、タスクを支援します。例えば「先週エリックが送ってくれたファイルを見せて」といった指示が可能になります。
- オンスクリーン認識:画面上のコンテンツを認識し、それに関連するアクションを実行します。例えば、メッセージで送られてきた住所を連絡先カードに追加したり、表示中の写真を誰かに送信したりできます。
- 深いアプリ連携:アプリ間でのファイル移動、写真編集後の送信、自宅への道案内とETAの共有、作成したメールの送信など、より高度なアプリ連携が可能になります。
iOS 26.4ではチャットのような双方向インターフェースは提供されないものの、Siriは現在とは大きく異なる体験を提供すると期待されています。
Siriのリデザインとメモリ機能
新機能の追加に伴い、Siriのビジュアルデザインも変更される予定です。Appleが開発中のテーブルトップロボット向けには、MacのFinderロゴに似たアニメーション版Siriがテストされており、これがiOS 27でのSiriの大規模な改変時に採用される可能性もあります。
また、ClaudeやChatGPT、Geminiが過去の会話ややり取りを記憶する機能を持つように、Siriチャットボットも記憶機能を備えると考えられます。ただし、ユーザーのプライバシー保護のため、会話の記憶範囲には制限が設けられる可能性が議論されています。
基盤となるアーキテクチャとGoogle Geminiとの提携
AppleはGoogleと提携し、次世代のApple Foundation ModelsがGoogleのGeminiモデルとクラウド技術に基づくと発表しました。Siriチャットボットは、Google Geminiチームが開発したカスタムAIモデルに依存することになり、このモデルはGemini 3に匹敵する強力なものとされています。
Appleは、SiriチャットボットをGoogleのTensor Processing Unitsを搭載したサーバーで運用することも検討しており、これはAppleが日々数十億台のアクティブデバイスからのチャットボットクエリを処理するためのインフラをまだ持たないためと考えられます。将来的には、Appleが自社で十分強力なLLMを開発できれば、Googleの技術から移行する可能性もあります。
提供プラットフォームとコスト、リリース時期
Siriのチャットボット機能は、iOS 27、iPadOS 27、macOS 27の主要な新機能となる予定で、iPhone、iPad、Macに統合されます。visionOSやtvOSなどの他のプラットフォームにも提供される可能性があります。
コストについてはまだ発表されていませんが、Siriチャットボットを完全にデバイス上で実行することは不可能であり、Appleは大規模なクラウド処理能力を必要とします。Googleとの提携による年間約10億ドルの費用も発生しているため、Google Geminiのように無料版と月額課金制のプレミアム版が導入される可能性も考えられます。
Appleは、6月に開催されるWorldwide Developers ConferenceでiOS 27などの発表と同時にSiriのチャットボット機能を披露する計画です。数ヶ月のベータテスト期間を経て、9月のアップデートで正式に導入される見込みです。
