Appleの2026年スマートグラス:期待される5つの主要機能

Appleのスマートグラス開発が加速

Appleは、MetaのRay-Banに対抗するスマートグラスの開発を進めており、その開発を加速させるため、次期Vision Proの開発を一時停止したと報じられています。Metaがディスプレイ付きのスマートグラスを発表したことを受け、Appleは第一世代モデルの市場投入を優先しています。Appleのスマートグラスは、Metaの最新Ray-Banのようなディスプレイは搭載しないものの、AI、カメラ、オーディオ機能を備える予定です。

ファッション性を重視したデザイン

Appleのスマートグラスは、Apple Watchの初期モデルと同様に、ファッションアクセサリーとしての位置づけが強調されています。無骨なフレームではなく、複数のフレームとテンプルの素材オプションが提供され、ユーザーはパーソナライズされた外観を楽しむことができるでしょう。バッテリー、チップ、複数のカメラを搭載しつつ、いかにスリムなデザインを実現するかが課題となりますが、多様な色、サイズ、形状のオプションが期待されています。

次世代Siriが中心的な役割を果たす

スマートグラスの操作は主に音声ベースとなるため、次世代Siriがその機能の中核を担います。AppleはSiriを大規模言語モデル(LLM)で再構築しており、2026年春にはClaude、Gemini、ChatGPTのようなより賢いSiriが登場する予定です。スマートグラスに統合されたカメラと連携することで、Siriはユーザーが見ているものに関するフィードバックの提供、情報検索、外国語翻訳、駐車場所の記憶、タスクの指示、音楽再生、メッセージ送信など、多岐にわたる機能を提供できるようになります。Meta AIの機能に匹敵する体験を目指しており、カメラとAIの連携により、ユーザーの周囲の情報をSiriが「認識」し、処理する能力は、プライバシー保護の観点からも注目されます。

噂される主要機能

Appleのスマートグラスには、以下の機能が搭載されると噂されています。

  • 写真撮影
  • ビデオ録画
  • オーディオ再生(ポッドキャスト、音楽、オーディオブックを含む)
  • 道案内
  • 質問への回答
  • 周囲の状況説明
  • Visual Intelligenceによる植物、動物、ランドマークなどの識別
  • 電話の発信
  • メッセージの送信
  • 言語翻訳

特にカメラとAIによる周囲の認識機能は、ユーザーの行動や環境に関する機密情報を処理する可能性があり、そのデータ管理とセキュリティが重要となります。

iPhoneとの連携が必須

Appleのスマートグラスは、Apple WatchのチップをベースにしたApple設計のチップを搭載しますが、単体での動作は不可能です。AI処理やその他の機能には、iPhoneへの接続が必須となります。タスクをiPhoneにオフロードすることで、スマートグラスのバッテリー寿命の延長に貢献すると見られています。この連携モデルは、スマートグラスが収集するデータの処理経路セキュリティ対策に影響を与える可能性があります。

発表時期と価格

現在の噂では、Appleはスマートグラスを2026年後半に発表し、2027年初頭に発売する可能性があるとされています。価格についてはまだ情報がありませんが、Meta Ray-Bansが380ドルからであることを考慮すると、Appleも競争力のある価格設定を目指す可能性があります。


元記事: https://www.macrumors.com/2025/10/02/2026-smart-glasses-features/