Appleのスマートグラス開発が加速
Appleは、MetaのRay-Banに対抗するスマートグラスの開発を進めており、その開発を加速させるため、次期Vision Proの開発を一時停止したと報じられています。Metaがディスプレイ付きのスマートグラスを発表したことを受け、Appleは第一世代モデルの市場投入を優先しています。Appleのスマートグラスは、Metaの最新Ray-Banのようなディスプレイは搭載しないものの、AI、カメラ、オーディオ機能を備える予定です。
ファッション性を重視したデザイン
Appleのスマートグラスは、Apple Watchの初期モデルと同様に、ファッションアクセサリーとしての位置づけが強調されています。無骨なフレームではなく、複数のフレームとテンプルの素材オプションが提供され、ユーザーはパーソナライズされた外観を楽しむことができるでしょう。バッテリー、チップ、複数のカメラを搭載しつつ、いかにスリムなデザインを実現するかが課題となりますが、多様な色、サイズ、形状のオプションが期待されています。
次世代Siriが中心的な役割を果たす
スマートグラスの操作は主に音声ベースとなるため、次世代Siriがその機能の中核を担います。AppleはSiriを大規模言語モデル(LLM)で再構築しており、2026年春にはClaude、Gemini、ChatGPTのようなより賢いSiriが登場する予定です。スマートグラスに統合されたカメラと連携することで、Siriはユーザーが見ているものに関するフィードバックの提供、情報検索、外国語翻訳、駐車場所の記憶、タスクの指示、音楽再生、メッセージ送信など、多岐にわたる機能を提供できるようになります。Meta AIの機能に匹敵する体験を目指しており、カメラとAIの連携により、ユーザーの周囲の情報をSiriが「認識」し、処理する能力は、プライバシー保護の観点からも注目されます。
噂される主要機能
Appleのスマートグラスには、以下の機能が搭載されると噂されています。
- 写真撮影
- ビデオ録画
- オーディオ再生(ポッドキャスト、音楽、オーディオブックを含む)
- 道案内
- 質問への回答
- 周囲の状況説明
- Visual Intelligenceによる植物、動物、ランドマークなどの識別
- 電話の発信
- メッセージの送信
- 言語翻訳
特にカメラとAIによる周囲の認識機能は、ユーザーの行動や環境に関する機密情報を処理する可能性があり、そのデータ管理とセキュリティが重要となります。
iPhoneとの連携が必須
Appleのスマートグラスは、Apple WatchのチップをベースにしたApple設計のチップを搭載しますが、単体での動作は不可能です。AI処理やその他の機能には、iPhoneへの接続が必須となります。タスクをiPhoneにオフロードすることで、スマートグラスのバッテリー寿命の延長に貢献すると見られています。この連携モデルは、スマートグラスが収集するデータの処理経路とセキュリティ対策に影響を与える可能性があります。
発表時期と価格
現在の噂では、Appleはスマートグラスを2026年後半に発表し、2027年初頭に発売する可能性があるとされています。価格についてはまだ情報がありませんが、Meta Ray-Bansが380ドルからであることを考慮すると、Appleも競争力のある価格設定を目指す可能性があります。
元記事: https://www.macrumors.com/2025/10/02/2026-smart-glasses-features/