「スマートグラスは今度こそ成功する」--グーグル幹部が言い切る理由
米CNETのScott Stein記者は、Googleのニューヨークオフィスの奥まった場所にある部屋で、これまで読んだことがないタイトルの本がずらりと並んだ本棚を眺めていた。同氏は、その中からJeff VanderMeer氏の「Absolution」を選ぶと、この本を楽しむためにシリーズの他の本を読む必要があるかと尋ねた。すると、メガネから聞こえる親しげな声が、この本は著者の他の作品と同じ世界を舞台にしているが、物語は独立しているという答えを返してきた。 2023年の「Google Glass」 そうして数分の間メガネとやりとりをしたあと、先ほど眺めた本について質問をしてみると、メガネに搭載されたアシスタントは、目にした本をすべて思い出して列挙してみせた。 Googleの「Android」エコシステム担当プレジデントを務めるSameer Samat氏は、珍しい米CNETとの1対1での取材で、Google、サムスン、Qualcommの3社が共同開発した「Android XR」の登場によって、このようなやりとりは徐々に当たり前のことになっていくだろうと語った。Android XRは12月12日に発表されたばかりの新技術だ。Android業界の屋台骨を担う巨大IT企業であるこの3社は、Androidが複合現実ヘッドセットや、スマートグラスや、その間にあるあらゆるデバイスを動かすための新たなソフトウェアプラットフォームとなる新たな時代を生み出そうとしている。 サムスンは、このプラットフォームを利用する最初のデバイスになるヘッドセット(コードネーム「Project Moohan」)を開発中であり、やはり同社が取り組んでいるスマートグラスに先駆けて、2025年に発売する予定だ。Googleも、それに先立つ12月11日に、スマートグラスのプロトタイプをテスターに配布してフィードバックを募る予定であることを発表している。またGoogleとサムスンは、12月第2週に、アプリ制作者にAndroid XR向けに作られた体験の開発してもらうために、ニューヨークで開発者向けのデモを開催した。 スマートフォンはこの15年間の私たちの生活を根本的に変えた。大手IT企業はそれ以来、その変化に匹敵するような影響力のあるデバイスを生み出せていないが、Googleをはじめとする企業は、そのようなデバイスを作ろうと努力してきた。最初にリリースされたのは、拡張現実メガネの「Google Glass」だったが、価格の高さ、プライバシーに対する懸念、技術的な制約などによって、結局失敗に終わった。その後、スマートフォンをVRマシンに変える仮想現実プラットフォームである「Google Daydream」が登場したが、普及が進まず、2019年にサービスが終了している。 それから5年たった今も、AR/VR市場は好況とは言えない状況にあり、IDCの調査によれば、2024年第2四半期のVR/AR関連の出荷台数は前年比で28.1%減少している。The Informationの記事やTF International SecuritiesのアナリストであるMing-Chi Kuo氏の発言によれば、Appleも「Vision Pro」の発注台数を削減しており、このこともAR/VR市場の需要が低迷していることを示すシグナルだと解釈できるだろう。今の形のスマートフォンを発明したとされる企業でさえも、複合現実製品を成功させるのには苦戦しているわけだ。 しかしSamat氏は、今回は状況が変わると確信している。その理由は、この新しい技術があまりにも便利であり、メガネやバイザーを装着してでも使う価値があると感じるような、私たちが待ち望んでいたバーチャルアシスタントがようやく実現するからだという。もちろん、それが実現したのは人工知能が進歩したからであり、特に大きな影響を与えたのは、OpenAIの「ChatGPT」が2022年に登場したことでIT業界を根底から揺るがした生成AIだ。 「当社はこれまでもこの分野に取り組んできたが、技術の成熟が十分でなかったことは明らかだ」とSamat氏は言う。「しかし、私たちがこのビジョンを諦めたことはなかったし、取り組みをやめたこともなかった」 AIによって複合現実がようやく成功する 従来のVRヘッドセットのように見えるGoogleのプロトタイプスマートグラスや、Project Moohanを試してみれば、これまでの取り組みに足らなかったのはAIだったことが分かる。頭部に装着するガジェットにバーチャルアシスタントを搭載したのはこれらの製品が初めてではないが、その体験は、Appleの「Vision Pro」で「Siri」を使ったときや、「Meta Quest」のAIアシスタントとはかなり違っている。また、Metaの「Ray-Ban Metaスマートグラス」にもカメラを用いたAI機能はあったが、こちらはGoogleのデモ製品のように常に周囲を認識しているわけではない。 Android XRに搭載されたGeminiは、この数年の間に登場した、質問すると答えを返してくるボットとは違っており、単に音楽を再生したり、天気予報を伝えたり、アプリを起動したり、通知を読み上げたり、スマートホームのサーモスタットの温度を管理したりするだけではない。人間のように、装着者の周囲の世界を見て観察しているのだ。Googleは、5月にこのスマートグラスに使用されているアシスタントの初期のプロトタイプである「Project Astra」を披露した際に、すでにこのアプローチについてほのめかしていた。 米CNETのScott Stein記者は、Project Moohanのデモを試した際に、「Googleマップ」でバルセロナのサッカースタジアムである「Spotifyカンプ・ノウ」をバーチャル空間で訪ねた。しかも、そこで「このスタジアムで決められた有名なゴールを見せて」と言うだけで、そのスタジアムでプレーされたサッカーの試合のYouTube動画まで再生することができたのだ。米CNETのLisa Eadicicco記者がProject Astraを搭載したプロトタイプのスマートグラスを試したときには、Geminiに目の前にある棚に置かれているボトルの酒を使ったカクテルのアイデアを提供してもらうこともできた。 今回のGeminiは、これまでに実装されてきたものよりも存在感が大きく、周囲の文脈を認識している。起動中のGeminiは、常にリクエストに聞き耳を立てているため、命令がそれぞれ独立して認識されるアシスタントを使っているときと比べると、連続的に会話を交わしているような感覚になる。スマートグラスのツルをタップすれば、Geminiを停止させることもできる。 Samat氏は、「私たちは、これらのモデルが、スマートフォンやスマートフォンのカメラを使って、周囲の世界とどんな相互作用ができるかを色々と試してきた」と説明してくれた。「そして、何が可能になるのかを知って本当に驚いた」 Google Glassの時のように、プライバシーが問題になる可能性も十分にあるだろう。最近では当局の大手IT企業に対する規制が厳しくなっているが、これはIT企業が個人情報を取り扱う方法や、それらの企業が私たちの生活に及ぼす影響が大きすぎることに関する懸念が転換期を迎えているからだ。スマートグラスや没入型ヘッドセットなどの新しいデバイスは、将来そうした懸念をさらに強める可能性がある。 Samat氏は、多くの報道陣を集めた記者会見で、Googleは頭部に装着するデバイスに関する「特別なプライバシー設定」に取り組んでおり、2025年にその詳細を発表すると述べている。 同氏はその際、集まったジャーナリストに対して「私たちは、(プライバシーの問題に)慎重に対処する必要があることを十分に理解しているし、それに同意する」と語っていた。「さらに、スマートグラスや何らかのデバイスを装着している人物だけでなく、その周囲にいる人々に対しても同じことが言える」 2022年後半にChatGPTが登場して以来、AIのゴールドラッシュが続いており、製品にチャットボットや、会話インターフェース、生成機能を組み込もうとする数多くの試みが行われている。その代表的な例がスマートフォンだ。GoogleやApple、サムスンなどの企業は、スマートフォンにプロンプトに応じて画像を作成したり、テキストを要約したりするツールや、自然な言葉で応答できるバーチャルアシスタントを導入している。Googleは2024年にAndroidに「かこって検索」と呼ばれる機能を導入したが、この機能は、デバイスの画面上に映っているものを丸で囲むだけでGoogle検索を実行できるというものだった。同社は、Android XRにその現実世界版を導入しようとしている。 しかし、そうしたAIを使った機能は、消費者の気持ちに食い込んでいるわけではないし、スマートフォンの売れ行きに影響を与えているわけでもない。「Humane Ai Pin」や「rabbit r1」などのAIを中心に据えたガジェットも(これらはどちらも、主に音声を使ってやりとりするように設計されている)、ユーザーの期待は満たせず、2024年は残念な結果に終わった。 Googleやサムスンは、スマートグラスやヘッドセットは、装着者と視界を共有できるという点で非常に有利であり、スマートフォンを使った仕組みよりもずっと直感的で魅力的なものになる可能性があると考えている。Samat氏によれば、Google、サムスン、Qualcommがパートナーシップを発表したのは2023年2月だったが、それ以降のAIの進歩によって、開発の途中でアプローチを再評価せざるを得なくなったという。 「スマートグラスを使えば、現実世界の中でAIアシスタントを活用できる可能性がある」と同氏は言う。「この使い方は、スマートフォンにとっての電子メールやメッセンジャーに匹敵するものになるかもしれないと考えている。これは多くの意味で、キラーアプリケーションになるかもしれない」 このビジョンは、スマートグラスではなくヘッドセットから始まる。これは、大きなバイザー型のデバイスであるヘッドセットが、将来的にスマートグラスでも利用できる基盤を提供できるためだ。 「知覚技術やワールドロック(3D空間と現実空間の座標を対応させ固定するための技術)などをはじめとして、ヘッドセットを使って研究に取り組んで問題を解決した方がよさそうなことがいくつもある」とSamat氏は述べている。 この10年の間に発表されたGoogle製品の歴史を見れば、さまざまな技術がAndroid XRを構成する要素になっていることが分かるはずだ。「Wear OS」を使ったスマートウォッチ(これもサムスンとの協力で作られたプラットフォームだ)の一目で情報を確認できるウェジェットや、スマートフォンアプリにARを使った機能を搭載しようとするGoogleのさまざまな取り組み、「Nest Audio」などのスマートスピーカーで採用された音声によるやりとりなどは、すべてAndroid XRを構成するピースのように感じられる。そして、Geminiがそれらを結びつけ、縫い合わせる糸になっている。 手首に装着するウェアラブルは、Androidを複合現実に拡張する過程で特に重要な役割を果たす。スマートウォッチはスマートグラスとは本質的に異なるデバイスだが、どちらも素早く読み取れる小さな情報を表示することに最適化されている点では同じだ。また、デバイス本体とスマートフォンの間で処理を分割する必要がある点も共通している。Samat氏によれば、それがWear OSとAndroid XRの開発チームが緊密に連携している理由だという。 スマートウォッチとスマートグラスは一緒に使われることになりそうだ。スマートウォッチで新たな種類のジェスチャー入力が可能になったり、スマートグラスと連携させて、健康やフィットネスに関する統計を表示させたりする未来を想像してみてほしい。実際Samat氏は、後者については将来その可能性があるとほのめかしていた。 こうしたシナリオはまだ実現していないが、Samat氏がそれがいつになるのか、そもそも実現するのかに触れることはなかった。そもそも、Googleがスマートグラスをテスターに提供する目的には、スマートウォッチをスマートグラスとどう連携させるべきかについてのフィードバックを得ることも含まれている。 「私は、この2つを使った素晴らしいユースケースが出てくると考えている」とSamat氏は述べた。 Android XRのアプリやソフトウェアはどんなものになる? Android XRは、スマートフォンにおけるAndroidのように、多種多様なデバイスで利用できるように設計されている。そのため、アプリにもさまざまな形のものが出てくるはずだ。Samat氏は、Android XRようのアプリは大きく3つに分けられると述べている。その1つ目は2Dのアプリで、基本的に「Google Play」ストアですでに提供されているアプリを大きくしたものだ。 次に、空間を意識して設計されたアプリがある。例えば、アプリの特定の要素(例えばYouTubeのコメントなど)を、ユーザーが見やすい形で空間内に配置したメディアアプリがそれにあたる。そして3つ目は、複合現実に特化して作られた完全に没入型のアプリだ。例えば、米CNETの取材班が複合現実で試した3D版のGoogleマップは、3Dのマップをユーザーが入り込むことができる風景に展開したり、通常の2Dのマップに切り替えたりすることができた。 スマートフォンの場合と同じように、Android XRでもメーカーがデバイスに独自のカスタマイズを加えることができる。Samat氏によれば、デバイスメーカーは独自のサービスやアシスタントをAndroid XRに盛り込むことができるが、使いやすさを保つために、OSの一部の要素はすべてのデバイスで共通のものになるという。 この問題にうまく対処できるかどうかは、Google、サムスン、Qualcommの3社にとって非常に重要だ。Googleはすでに同社のAI技術に絡んでかなりの不手際を起こしており、特にGoogle検索の「AIによる概要」の情報に誤りが紛れ込んでいた問題は話題になった。rabbit r1やHumane Ai Pinの例でも分かるように、第一印象は非常に大切だ。期待外れなものや、不必要なもの、高すぎると感じたガジェットに時間やお金を費やしたいと思う人はいない。 あるいは、Google、サムスン、Qualcommの複合現実に関する取り組みの前に立ちはだかる最大の問題は、すでにこれだけスマートフォン漬けになっている生活に、別のガジェットが入り込む余地があるのかということかもしれない。 Samat氏はその余地はあると考えているが、その変化はゆっくりとしたものになるだろう。スマートグラスはスマートフォンの代わりにはならない。その一番大きな理由は、当面の間はスマートグラスが処理能力をスマートフォンに依存せざるを得ないからだ。ただしSamat氏は、使ってもらえればメリットはすぐに理解してもらえると確信しているという。これは、スマートグラスの方が人や情報とのつながりが強く感じられ、注意が逸れることも少ないためだ。 「スマートグラスは、これまでには不可能だった場面で、スーパーパワーを使えるようにしてくれる」と同氏は言う。「それを体験すれば、『これは確かにスマートフォンよりもいい』と思うはずだ」 この記事は海外Ziff Davis発の記事を朝日インタラクティブが日本向けに編集したものです。