これからのパソコンで最も注目すべきパーツ。NPUってなんなの?
NPUって最近生まれたの?
昨年から一気に色気づいてきたAIスマホ&AIパソコン。NPUも去年生まれたのかというとそうではなく、もう少し前からあります。 パソコンだけでなくスマートフォンにも搭載されるNPU。例えばGoogleがNPUじゃAI能力じゃと言い始めたのは、2017年リリースのPixel 2のころ。Huawei(ファーウェイ)もNPU搭載スマホのMate 10を2017年、AsusはZenphone 5を2018年にリリース。 そのころからスマホにおけるAI機能を推す傾向はあったものの、消費者としては今よりもっと?マーク。懐疑的な印象を持っていました。そもそも当時のNPUは、今ほどパワフルでもありませんでしたし。 スマホはもちろんパソコンも、去年より前からNPUを搭載していました。Apple(アップル)がIntel(インテル)からARMベースのMチップに移行を始めた2020年、すでにニューラル機能に対応していました。 M1チップは11TOPS、M2チップは15.8TOPS、M3チップは19TOPS。先日発表されたばかりの新型iPad Proには、MacBookを差し置いて最新チップのM4が搭載されたと大きな話題になりましたが、このM4チップではニューラル機能が大きく伸びてなんと38TOPS。
ハード>ソフト
NPUの狙いは、端末内のAIタスク処理(AI生成画像でもAIチャットbotでも)をCPUやGPUから分けることで、パソコン全体の動作を重くせずにAI機能をやりましょうというところにあります。 問題…というか課題は、そのNPUを最大限活用するために、ユーザーが本当に求めるAI機能を、まだ模索している段階にあるということです。 ここ数年、米Gizmodo編集部が大手チップメーカーに取材するたびに耳にしたのは、ハードウェアメーカーがソフトウェアメーカーの需要を上回ったと感じているということ。 これ、長い間逆だったのです。つまり、ソフト側が消費者向けハードの限界をグイグイと押し、チップメーカーがなんとかそこに追いついていた(追いつけとハッパかけられてきた)という長年の構図が、AI時代に入って変わってきたということです。 2024年、端末内で処理可能なAIタスクはまだ一部です。Qualcomm(クアルコム)やIntelのチップのAIデモは、Zoomの背景をボケ加工するくらい。リアルタイム字幕やAI音楽生成や画像生成、AIチャットボットに対応したアプリなどはあるものの、誰もがNPU能力の高い最新端末が欲しくなるようなAI機能は、まだ一般的ではないというのが今の段階です。 今できるのは、Googleならば、自社AIシリーズの中のミニサイズ版Gemini Nanoを、Pixel 8やPixel 8aに搭載すること。Samsungならば、Galaxy S24のみで使えたAI機能を、それ以前の機種にも拡大対応すること。年内にはスマートウォッチにも拡大する予定なこと。以前の端末でどこまでAI能力が開花するかは、ベンチマークしてみないと分かりませんが、2021年くらいまでの端末ならそこそこは使えそう。 端末内でのAI処理は、まだまだ一般消費者向けマシンでは処理能力が追いつかず。Microsoft、OpenAI、Googleは、NvidiaのAI進化版GPUを山ほど積んだデータセンターにて、多くのAI処理(Gemini AdvancedやGPT4o含むより高性能なAI)をこなしています。 このプロセスには、コストもリソース(電力・水など)が膨大にかかり、結果としてこれらクラウドで処理するAIを利用するユーザーは、有料ユーザーである必要があります。逆に考えれば、端末内でAIタスク処理ができるようになれば、ユーザーにも環境にも優しくなるということなのです。つまり、NPU性能アップが重要なのですね。
そうこ