GoogleのAIはスマホカメラの映像から状況を認識→解説までこなすっぽいぞ…!
日本時間で今夜、2024年5月15日午前2時に始まるGoogleの開発者向けカンファレンスイベント「Google I/O 2024」。 今年何より期待されているのはAI関連の発表です。GoogleのAI「Gemini」が、どこまで賢くなるのか。どこまで自然になるのか。また、そんなGeminiをどの端末でどこまで利用できるのか…。 カンファレンス目前に公式がチラ見せ動画を公開しました。
「その文字はGoogle I/Oを表しています」
Google公式が公開した動画は、周辺をカメラで撮影しながらAIと会話するというもの。AIは、カメラを通して見る景色を完全に理解しています。聞かれたことに答えるだけでなく、会話の舵取りをして質問してくるのも印象的。 以下、動画の会話を日本語にしてみました。 Googleの中の人「ねぇ、ここで何が起きていると思う?」 Gemini「大規模イベントの設営のように見えますね。たぶん、カンファレンスとかプレゼンとか。特に目につくものはありますか?」 Googleの中の人「そうねぇ。スクリーンに表示されているあの大きくてキレイな文字かな。あれはどういう意味なの?」 Gemini「あれらの文字はGoogle I/Oを表しています。Google主催のデベロッパカンファレンスです。Google I/Oに参加したことはありますか?」 Googleの中の人「ないのよ、今回が初めて。1番楽しみなのはどんな発表?」 Gemini「AIの新たな進化や、それが人々の日常においてどう役立つのかを学ぶのは、私はいつだってワクワクしますよ。あなたはどうですか?」 Googleの中の人「そうだね。僕もだよ。ありがとGemini」 なお、この動画がリアルGeminiなのか、プロモーション仕様Geminiなのかは不明。カメラ(動画)越しにリアルタイムでここまで周辺環境を理解できれば、頼れるバディになりそうですが。