WWDC 2024を前におさらい、いますぐ使える「アップルのAI」
これらはどれも、iOSやmacOSに内蔵されているAIが、画像や音声を裏で自動的に処理してくれているからできることだ。 ■アクセシビリティでAIを活用 他にも、あまり知られていないAI関連機能はいくつもあるのだが、いわゆるアクセシビリティに関する機能は、AIをうまく活用しているものが多い。 たとえば「サウンド認識」。これはiPhoneやiPadに搭載されているものなのだが、周囲でサイレンや車のクラクション、ガラスが割れる音やドアベルなどが聞こえた際、それを機器の通知(振動や音、画面表示)で伝えてくれる。聴覚にハンディがある人が、iPhoneを一種のセンサーとして使い、周囲の状況を把握しやすくするための機能である。
なにかを拡大して見るアプリである「拡大鏡」にも面白い機能がある。それが「検出モード」だ。 検出モードをオンにすると、カメラの前にあるものがなにかをテキストで解説する。たとえば千円札を移せば「紙幣」で「千円」という文字がある、と表示されるし、キーボードに向けると「キーボードがある」と示してくれる。これを音声読み上げモードと組み合わせると、視覚にハンディがある人は、目の前のものがなにかを把握しやすくなるわけだ。
■アップルAIの特徴は「使いやすさ」 これらの機能は「アップル製品にしかないもの」というわけではない。ただ、単純にUIがよくできていて、より利用しやすいのは事実だろう。 たとえば画像内の文字認識については、Androidなら「Googleレンズ」機能で、Windowsの場合、OS付属のキャプチャツール「Snipping Tool」に似た機能がある。 しかし、それらは「画像の中の要素を認識する」という動作をしてから認識が行われる形の機能だ。アップルの場合、「画像内の文字がテキストのように扱える」という実装になっていて、より自然に使える。また、iPhoneからMacまで、幅広い製品で同じように使えるというのもありがたい。 ノイズ除去についても、ZoomやMicrosoft Teamsには同じような機能が付いている。ノイズ除去だけを行うアプリもある。しかし、OSに機能が標準で組み込まれていて、誰でもコスト追加なく、幅広いアプリから利用という意味では、アップルの機能は優れたものと言えるだろう。 アクセシビリティ系については機能が表からは見つけづらく、そこが課題だとは感じる。しかし、動作も素早く精度も良いので、OSの基本機能として備えておくべきもの、というのは間違いないだろう。 ■Vision Proで使える“分身”もAI活用 少し変わったAIという意味では、Apple Vision Proに搭載されている「Persona」が挙げられるだろう。 これは、自分の顔をVision Proでキャプチャし、立体のアバターを作ってビデオ会議などで使うものだ。Vision Proをかぶった状態でビデオ会議をする場合、自分の顔をビデオカメラで撮っても、Vision Proで顔が隠れてしまう。そのため、自分の「仮想の顔」を作って仮想カメラからの映像として使い、ビデオ会議に流すわけだ。