「Apple Intelligence」の登場で、Appleデバイスの使い方はどう変わる?
Apple Intelligenceは、複数のモデルを組み合わせながら、ひとつのアプリでの体験やワークフローにAIを取り込んでいくことが想定されており、Apple Pencilを用いるメモアプリは、その中で最も分かりやすい、目に見える変化を経験できる事例と言えます。 ■iPhone絵文字にも生成AI活用。MacならWriting Toolsがオススメ iPhoneでは、やはりメッセージのやり取りが盛んであることから、コミュニケーションにおける画像生成AIによる表現が分かりやすい活用例となります。 Genmojiは、「キュウリを目に貼り付けたスマイル」や「リスのDJ」といったテキストを入力したり、友人のバースデーケーキでのお祝いや、スーパーマンに扮した母親といった、iPhoneの写真ライブラリの「人々」のデータを用いた画像などを、メッセージアプリ内で作ってすぐに送る、と言ったストレスフリーな使い方が、WWDC24の基調講演でも紹介されました。
Genmojiは、画像を生成するAIですが、クラウドのAIサーバにアクセスすることなく、デバイス内で生成処理を完結できるとしています。 自分や、写真ライブラリ内の家族や友人の顔写真を用いて、オリジナルの絵文字(=Genmoji)を作ることができますが、そうした写真をサーバに送らず生成AIの画像を楽しめるのです。 Macでオススメな使い方は、言語モデルを用いたWriting Toolsでしょう。ワープロやメモのテキストを要約したり、メールをよりカジュアルに、もしくはプロフェッショナルらしくアレンジしたり、校正をしたり、要約をしたり、おおよそ考え得るテキスト処理を、デバイス上ですばやく実現する仕組です。
たとえばPagesで、架空の設定の物語を作らせて、その設定に合わせた画像を生成して挿絵にする、といった使い方も考えられています。あるいはプログラマにとっては、Swiftコードの自動補完が便利かもしれません。 こうした一連の処理を、クラウド向けに料金を払うことなく、おおよそデバイス上の処理を中心として、すばやく実現する。これがApple Intelligenceが実装されたあとの、iPhoneやMacの世界になるのです。 ■“Siriに聞くだけ”のデモに見る、Apple Intelligenceのスゴさ Apple Intelligenceは、既存の生成AI競争に十分対抗できるだけのモデル群と、オンデバイス処理によるプライバシーやスピード、より広い視野を拡げれば、消費電力やネットワーク帯域に負担をかけない形で、より多くの人々がAIを活用する世界の手法を明らかにするものでした。 しかしApple Intelligenceの凄みは、既存の生成AIと肩を並べることではありません。 Appleは、デバイス上でユーザーがどんな情報に触れ、どんな情報を受け取り、アプリで何をやっているのか、という情報全てを、生成AIによる処理の対象としているのです。 これは、チャット型やプロンプト型の生成AIが持ち合わせていない、ユーザーの生活そのものに近い情報を、AIで便利にしていこうというコンセプトがあるのです。 たとえば「自分が出発時点でいる場所を、何時に出れば、空港に迎えに行くとぴったりの時間なのか?」をSiriに質問したとします。