Googleレンズの最新アップデートで「動画を撮って検索」が可能に
グーグルやサムスンなどの企業は、大規模なOSのアップデートや新たなハードウェアを必要とせずに、可能な限り多くのスマートフォンにAIを普及させる方法を模索している。Googleレンズの最新のアップデートは、グーグルのその取り組みを示している。 グーグルは10月3日、画像を使用してオブジェクトを識別するビジュアル検索エンジンであるGoogleレンズで、ビデオを用いた検索を可能にすると発表した。同社は、ユーザーが水族館で撮影したビデオから、魚の種類を特定する場合を例に挙げている。 「Googleアプリでレンズを開き、シャッターボタンを長押ししながら録画しつつ、『なぜこの魚は一緒に泳いでいるの?』といった質問を声に出してみましょう。すると、生成AIのGeminiが動画と質問を組み合わせて処理し、ウェブ上の関連情報とその要約が表示されます」とグーグルは3日のブログで説明した(この機能は、AndroidおよびiOSのGoogle検索アプリで試験提供中のSearch Labsに参加しているユーザー向けに提供され、言語は英語のみに対応している)。 グーグルはまた、レンズを用いて画像検索を行う場合に、声で質問ができる機能を追加した。従来は、質問はテキスト入力のみが可能だった(この機能も、AndroidおよびiOSのGoogle検索アプリで英語のみに対応)。 さらに、レンズを用いたショッピング機能も進化し、ユーザーが撮影した写真に基づいてアイテムを特定する機能も向上した。グーグルによれば、検索結果のページは劇的に使いやすくなり、複数の小売店でのレビューや価格の詳細情報が表示されるようになるという。 同社が挙げた例では、空港で気になったリュックサックを写真に撮って画像検索を行うと、そのアイテムがザ・ノース・フェイスのものであることを特定し、購入可能な小売店の検索結果が表示される。レンズを用いたショッピングにおいては、これまで質の低い検索結果が表示されていたため、今回のアップデートには大いに期待したい。 ■生成AIの恩恵をすべての人に ここで重要なのは、これらのアップデートがiOSとAndroidの、Googleレンズが利用可能なすべてのスマートフォンで利用可能になるという点だ。グーグルによれば、Googleレンズは毎月200億件のビジュアル検索を処理している。これらのアップデートにより、新たなハードウェアを必要とせずに、多くの人々が生成AIの恩恵を受けられるようになる。 また、ここでの明らかな利点は、高度なAI技術を最もアクセスしやすい製品に追加することで、ユーザーが自然にグーグルのエコシステムに取り込まれることだ。これらのユーザーは、将来的にGoogle Pixelスマートフォンの購入者やGeminiの有料版であるGemini Advancedの加入者になる可能性がある。 今年初めにGalaxy S24が発売された際、サムスンとグーグルは「かこって検索(Circle to Circle)」機能の宣伝に多くの費用を費やしていた。しかし、当時はサムスンの独自のAI機能のほうがはるかに優れたものと考えられていたため、その理由が完全には理解できなかった。 しかし、その後の数カ月で、グーグルはかこって検索にフルページテキスト翻訳やQRコードスキャン、楽曲の識別機能などを追加した。その結果、グーグルのアプリは、以前をはるかに上回る、汎用AI搭載の検索アプリへと進化した。 Googleレンズも同様の進化を遂げている模様で、今後もさらなる新機能が追加されることは間違いないだろう。しかも、新たなハードウェアを必要とせずに、その機能が手に入るのは素晴らしいことと言える。
Janhoi McGregor