Google、Android XRでAIと拡張現実の融合を追求する未来
Android XRのGeminiは、ユーザーがいま見ている視界のなかにあるものや、ユーザーにいま聞こえているものを認識することで、それに応じたユーザーのジェスチャーと音声コマンドの認識もしやすくしている。そのため、アプリの操作やAIとの対話における誤りも少なくなっているようだ。 GoogleはAndroid XRの発表に合わせて、Google フォト、Google TV、YouTubeといった自社アプリのAndroid XR対応版の動作を示した一連の動画を公開した。その様子からは、ヘッドセットでアプリを使うときにどのような感覚になるかを知ることができる。
たとえば、Googleフォトアプリは、ウィンドウ内のUI配置などはタブレット版に準じているが、「Immersive(没入感)」と書かれたボタンを押すと拡大表示した写真や動画の端がフェード処理されてよりふんわりと浮かんでいるような印象になる。別のボタンでカルーセル表示にすれば、多数並んだ写真や動画を左右にめくるようにして目的のものを探し出せる。 Immersive表示はヘッドセットやスマートグラスならではの表示方法であり、他にもGoogle マップやChromeブラウザーのAndroid XR対応版でも使える。
また、YouTubeアプリでは動画に関する質問を音声でたずねると、Geminiの音声機能が答えを返してくれる。ほかにもGoogleの「Circle to Search(かこって検索)」機能なども対応しているアプリで使うことができる。もちろん、立体視動画や、360度見渡せる全天球動画などにも対応する。 ■複数企業が対応ハードウェアを開発中 Android XRを成功させるには、その性能を最大限に活用するヘッドセットやスマートグラス製品と、それを購入し使用するユーザーが必要だ。しかし、この分野の製品はいまだ一般に広く認知され、普及しているとは言い難い。