はじめに
Googleは、GoogleマップにAIアシスタント「Gemini」を統合し、ナビゲーションとハンズフリー操作を大幅に強化すると発表しました。このAIを活用した新機能により、ユーザーは運転中や周囲の探索において、よりスマートでパーソナライズされた体験を得られるようになります。
運転中のAIアシスタント
Geminiの統合により、ユーザーは運転中にハンズフリーで質問を投げかけ、回答を得ることができるようになります。ルート上の関心事について尋ねたり、スポーツやニュースといった他のトピックに関する情報を取得したり、さらにはカレンダーにイベントを追加するなどのタスクを実行することも可能です。
例えば、「ルート沿いに予算内でヴィーガン料理が食べられるレストランはありますか?数マイル以内のもので…駐車場の状況はどうですか?」といった複雑な質問にも対応します。また、ドライバーはGeminiを使って交通状況を報告できるほか、Googleマップはルート上の障害を事前に通知するようになります。
ランドマークを活用したナビゲーション
Googleは、Geminiとストリートビューデータを組み合わせた新しいナビゲーション機能も追加します。これにより、従来の「500フィート先を右折」といった指示ではなく、ガソリンスタンド、レストラン、有名な建物などの近くのランドマークを基準にした案内が提供されます。Googleは、2億5千万箇所の情報とストリートビュー画像を相互参照し、ナビゲーションに役立つ重要で視認性の高いランドマークを特定しているとのことです。
Googleレンズで周囲を探索
Googleマップは、Googleレンズと連携して周囲の場所に関する質問に答える機能も獲得します。ユーザーはカメラをレストランやランドマークなどの関心のある場所に向けるだけで、「この場所は何ですか?なぜ人気があるのですか?」といった質問をGeminiに投げかけることができます。
展開状況
これらの新しいGeminiナビゲーション機能は、今後数週間以内にiOSおよびAndroidデバイスに展開される予定で、Android Autoへの対応も近日中に行われます。交通アラートはまず米国でAndroidユーザー向けに展開され、ランドマークナビゲーションは現在、米国でのみiOSとAndroidで利用可能です。Googleレンズと連携した機能は、今月末に米国で利用可能になる予定です。
