約60万円の「Apple Vision Pro」が日本でも発売! 買うかどうか迷っている人に知っておいてほしいこと
Apple Vision Proで“何か”を作りたい人にとって好機
クリエイターであれ、プログラマーであれ、Apple Vision Proで“何か”新しいアプリを作りたいと考えているのであれば、今回の日本発売は好機といえるだろう。 現在、Apple Vision Pro用のOS「visionOS」の最新バージョンは1.2だ。発売初期に発覚した不具合や機能の不足について、このバージョンでも対応や調整が進んでいるが、2024年秋にリリース予定の「visionOS 2」では、機能設定などのメニューも大幅に整理され、ホーム画面のアイコンの配置といった極めて細かい部分まで手が入っている。 visionOS 2は開発者向けのβ版が公開済みで、一般ユーザーでも試せるパブリックβ版が7月に公開される予定だ。 visionOSの基本的な操作性や機能の方向性は、iPadによく似ている。そのことを考えれば、全体の機能に関しては、まだまだ不足するところもある。しかし、メニュー構成などはかなり近づいており、完成とはいえないものの「準備段階」とやゆされるほどには未熟でもない。 APIの改善/追加 Apple Vision Proで“何か”を作りたい人にとっては、そうしたvisionOSの表面上の変化よりも、新しいAPIや、既存APIのアップグレードの方が大きな違いとして映るだろう。 例えば、Apple Vision Proではユーザーインタフェース(UI)において「視線入力」や「ハンドトラッキング」といった機能がとても重要だ。しかし、プライバシーを重視する観点から、Appleはこれらの機能を思っている以上にコンサバティブ(保守的)に実装している。そのため従来は、通常のアプリが視線入力やハンドトラッキングの情報を完全な形で得ることはできなかった。 それに対して、visionOS 2ではユーザーが見つめているオブジェクトのメッシュを識別できるようになる。アプリの表示方法にも改善が行われ、特に「ボリューム」(3Dコンテンツの表示方法)を使うアプリを複数使う場合のハンドリングがしやすくなる。 新しいAPIもいくつか追加される。「Volumetric API」は、その名の通り空間上に表示される物体の「ボリューム(量感)」を簡単にコントロールし、空間上に複数アプリを併存させる助けとなる。また「TabletopKit」という新フレームワークも追加され、例えばカードゲームやボードゲームなどを作る際に、テーブル上に配置したアイテムをハンドトラッキングで操作する処理などを簡単に行えるようになる。 「Enterprise API」は、その名の通り企業/組織内でApple Vision Proを利用する場合に便利なAPI群で、通常のAPIと比べて内蔵センサーへのアクセス機能が強化される。例えば内蔵のメインカメラやNeural Engine(NPU)へのアクセスの他、バーコード/二次元コードの空間スキャン機能などが提供される。 これらの新APIは、医療/製造/教育などの分野での活用を狙っている。例えば、医療分野では外科手術のトレーニング/シミュレーション、製造業では機器のメンテナンス支援、教育分野では複雑な推論モデルをもとにした3Dモデリングシミュレーションを空間内で可視化する、といった用途が想定される。 visionOS 2では、自分が存在している部屋の認識精度も高まり、部屋の中の特定の位置や壁、天井などに沿って表示オブジェクトを固定できるようになる。「Object Tracking API」を使えば、視野の中にあるさまざまなモノにデジタルコンテンツを関連づけて表示することも可能だ。「デジタルペルソナ」とFaceTimeに関する新しいAPIも提供されるので、アプリにコミュニケーション機能を組み込むこともできる。 少々長くなってしまったが、開発プラットフォームとしてのvisionOSは、新バージョンによって“本格的な”空間コンピュータとしての進化の方向を見出し始めている。 おそらくUIなども含めて、エンドユーザー向けの製品としての完成度を高めてくるのは「visionOS 3(仮)」からになると思う。しかし、アプリ開発の視点からいえば、バージョン1.xから2への変化は、バグフィックスや機能改良、追加なども含めて“整い始めた”いいタイミングだと思う。