アップルのAI施策と課題--「Apple Intelligence」を考える
スマート通知と記述ツール AppleのOSのスマート通知は、デバイス上のLLMを活用して無駄な情報を取り除き、最も重要なアラートだけが確実に届くようにする。これは、各通知の重要な詳細情報を表示する新機能「Reduce Interruptions Focus」の一部だ。システム全体に組み込まれた記述ツールは、短いメッセージから長いブログ投稿まで、テキストの執筆、校正、要約をユーザーに代わって実行する。「Rewrite」機能は、想定する読者に合わせて複数のバージョンのテキストを作成する。 改善の余地:Reduce Interruptions Focusをさらに発展させて、先を見越した支援機能を強化し、過去の行動とコンテキストを基にユーザーのニーズを予測できるようになれば便利だろう。 強化された「Siri」とタスク自動化 不満があるものの使っている中で容認されてきた音声アシスタントSiriに、待望のアップグレードがついに実施される。高度な自然言語処理(NLP)により、Siriはユーザーが言葉に詰まっても、内容を理解して会話の文脈を維持できるため、やりとりがさらにシームレスで直観的になる。また、Siriへのリクエストを文字入力することが可能になった。この機能は、騒がしい環境で重宝されるはずだ。Siriは外観が新しくなり、タップすると光がデバイスの縁を囲むように輝き、モダンな印象を与える。 コンテキスト認識能力が向上することで、特定の写真の検索、ポッドキャストの再生、共有ファイルの取得といったタスクをユーザーの指示に基づいて処理できるようになる。運転免許証の情報を写真から抽出して、フォームに入力することができる。「Photos」では、NLPを使用して特定の写真やビデオクリップを検索できるほか、邪魔な被写体を新しい「Clean Up」ツールで削除できる。 新機能Reduce Interruptionsにより、ユーザーのアクティビティーに基づいて、最も重要な通知だけが届くようになる。iPadでは、手書きの最適化(「Smart Script」)と数式を解釈する機能によって、「Apple Pencil」で方程式を書いて「Calculator」アプリに解かせることが簡単にできる。「Notes」では、「Image Wand」によってラフなスケッチを洗練された画像に変換できるほか、音声を録音して書き起こし、Apple Intelligenceに要約を生成させることが可能だ。PhotosのClean Upツールは不要な被写体を削除し、「Search in videos」機能は動画内の特定の部分を見つけるのに役立つ。 Apple Intelligenceには、アプリ内でアクションをユーザーに代わって実行する機能もある。リクエストに基づいてPhotosを開き、特定のグループの画像を表示することができる。「Mail」では、優先度の高いメッセージが要約とともに強調表示され、内容がすぐに分かる。Notesのユーザーは音声の録音、書き起こし、要約のほか、通話の書き起こしの要約を作成し、参加者に自動で通知することができる。 改善の余地:Appleは大きな進歩を遂げたが、今後のアップデートで、Siriのさらなる機能強化、より複雑なタスクの自動化、Appleのエコシステム全体でのより詳細なパーソナライゼーションが実現する可能性がある。 Apple製品全般のAI機能 最後に、Siriや「Apple Music」「Apple News」「Health」「Apple Fitness+」「Apple TV」「HomeKit」など、すべてのApple製品でAI機能を強化することが、筆者の重要な提案だった。AppleのAI機能はさまざまなデバイスで統合されているが、少なくともWWDCの基調講演の内容から判断すると、Apple MusicやHomeKitなどのサービスの具体的な機能強化は限定的だった。 改善の余地:「HomePod」やApple TVのApple Intelligence対応についても発表がなかったが、これらの製品はどちらもデバイス上で生成AIを実行できるだけの演算能力がない。同様に、「watchOS」の新しいAI機能についても言及はなかった。こうしたデバイスがApple Intelligenceのクラウド機能の一部を利用できる可能性はあるが、基調講演では触れられていない。さらに、「M2」チップを搭載する「Vision Pro」は、Apple Intelligenceのオンデバイス機能を処理するのに十分な性能を備えているが、Vision Proに追加される具体的な機能について、基調講演では語られなかった。 AppleのAIの強化は十分だったか 心躍る発表ではあったが、まだ欠けている部分はある。Appleは新しいAPIと機能強化を発表し、基調講演後の開発者セッションでは、必要なツールやフレームワーク、トレーニングが提供された。しかし、特に健康や金融などの重要な分野で、より広範なサードパーティー統合の機会を逃してしまった。それらの統合が発表されるのは、開発者が2024年秋にApple Intelligenceをテストし、iOS 18がリリースされた後になるかもしれない。 Apple Music、News、Health、Fitness+、HomeKitなど、Appleの各種サービスの機能強化が示唆されたが、詳しい説明はなかった。これらの詳細は今後、iOS 18のベータ版で明らかになるとみられる。 AppleのWWDC 2024の発表内容は、筆者の重要な提案と合致する部分もあったが、広範なサードパーティー統合、先を見越した支援、倫理的なAIの使用に関しては不十分だった。だが、WWDCで用意された大規模な開発者セッションは、こうした新しいAI機能の使用に必要なツールと知識を開発者に提供することに、Appleが真剣に取り組んでいることを示している。 残りの不十分な点に対処すれば、AI分野におけるAppleの競争力が強化され、より強固でユーザー中心のAIエコシステムを提供できる可能性がある。これらの分野で革新と改善を続けることで、Appleは新たな基準を確立し、AIが主導するテクノロジーの未来で優位に立てるかもしれない。 この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。