メタのRay-Banスマートグラスに「ライブAIとライブ翻訳」機能追加
メタは、9月の開発者向けカンファレンスMeta Connect 2024で発表した重要な機能のいくつかを、スマートグラスのMeta Ray-Banに追加した。 同社の早期アクセスプログラムに参加しているユーザーは、スマートグラスを使用して新たな人工知能(AI)機能やライブ翻訳機能、楽曲検索のShazamを試すことができる。 これらの機能は、メタのv11ソフトウェアアップデートに利用可能になったが、その中でも最も注目に値するのが「live AI(ライブAI)」と呼ばれるグラスに搭載されたカメラからの映像がAIアシスタントとのやり取りに反映されるようになるものだ。 「Meta AIは、あなたが見ているものを連続的に把握し、これまで以上に自然な会話が行えます。将来的には、ライブAIが適切なタイミングで、あなたが尋ねる前に役立つ提案を行うようになるでしょう」と同社は説明している。 最新のMeta Ray-Banグラスには12MPのカメラが搭載されており、周囲の風景を十分にクリアに捉えることが可能だ。ただし、画像の解析には、よりベーシックな1080pのビデオフィードが使用される可能性がある。 さらに、今回のアップデートには9月のMeta Connectのデモの中で特に注目を集めたライブ翻訳機能が含まれている。この機能は、スペイン語やフランス語、イタリア語の音声をリアルタイムで英語に翻訳するもので、イベントではマーク・ザッカーバーグと格闘技のUFCの選手ブランドン・モレノが2つの言語で会話する様子が披露された。 ザッカーバーグは英語、モレノはスペイン語で話し、翻訳された音声がMeta Ray-Banグラスのスピーカーを通じて再生された。また、手持ちのスマホでトランスクリプトを確認することが可能だった。 ここで注目すべきポイントは、翻訳がどれほどスピーディーに行われるかという点と、どれだけ自然な会話が可能かという点だ。このテクノロジー自体はまったく新しいものではないが、スマートグラスを用いることで、より直感的な操作が可能になっている。 さらに、今回のアップデートではShazamの統合も行われ、Meta Ray-Banグラスの使用者が「ねえメタ、この曲は何?」と尋ねることで、再生中の曲名を教えてもらうことが可能になっている。 これらの3つの新機能は、現時点では米国とカナダでのみで利用可能だ。また、AIを活用した追加の機能の利用には、早期アクセスプログラムへの登録が必要とされている。今回のソフトウェアアップデートは、12月16日からロールアウトが開始されている。
Andrew Williams