アップルの新型iPadは“AI対応の遅れ”への回答か AIブームの中で「蚊帳の外」に扱われてきたが
iPhone 11世代の頃、Neural Engineはカメラの画質を高めるため、センサーがとらえた映像の分析に主に使われていた。しかし現在では操作性の向上や写真、動画からの文字データ抽出、被写体の切り抜き、音声認識など、実に多くの場面で使われている。そんな背景からNeural Engineの処理回路に変更が加えられたと想像される。 より多くの処理を回せるiPad Proでは、M4の能力を用いて、(主なユーザーとして想定している)コンテンツクリエーター向けに新しい機能を提案している。
新型のiPad Proでデモンストレーションが行われたのは、動画編集アプリケーションの「Final Cut Pro」と、音楽制作アプリケーションの「Logic Pro」のiPad版だ。今回アップデートされた両アプリケーションには、M4のNeural Engineを活用した機能がいくつか組み込まれているのだ。 ■アプリの新機能にAIをフル活用 Final Cut Proでは、AIが背景と前景を分析し、ユーザーの要望に応じて特定のシーンから不要な要素を除去・調整できる。動画内の主要な被写体を自動的に検出して、視覚的なインパクトが高くなるよう自動的にフレーミングを行うAI機能も搭載し、音声から背景ノイズを低減して話者の声をクリアに際立たせる処理もほぼ自動で行える。
一方のLogic Proには、AI駆動のドラマーとベースプレーヤー、キーボードプレーヤーが組み込まれており、簡単な指示を行うだけでバックバンドが自動伴奏をつけてくれる。コード進行を明示的に指定すると、そのコードに沿って自動演奏する。 「ステム・スプリッター」と呼ばれる機能を使えば、デモ録音を、ドラム、ベース、ボーカル、その他の楽器の4つの独立したパートに分離できる。このパート別にまとめられたデータを基に、AIセッションプレーヤーで伴奏を補強し、新たなトラックを追加することで完成度の高い音楽へと仕上げることもできる。