早くも形成されたNvidia 包囲網
5月下旬に発表されたNvidiaの2025年度第1四半期(2024年2月~4月)の業績はかつての2018年のメモリバブルを思い出す。当時Samsungは2018年第2四半期の営業利益率は55.6%という儲けすぎ(生産量をほとんど増やさず単価の値上げで売り上げが増えていたから)状態だったが、今のNvidiaもそれに近い状況が続いてきた。単価は高いものだと1個500万円もするらしい。2024年度第1四半期は調子が良いいつも通りの30%の営業利益率(GAAPベース)だったが、24年度第2四半期には50.3%、第3四半期に57.5%、第4四半期に61.6%、そして2025年度第1四半期には64.9%という儲けすぎ状態になった。
営業利益率が50%を突破するという儲けすぎ状態はほぼバブルだといってもよい。Samsungは2018年第4四半期に営業利益率が50%を切ってからはどんどん下がりついには赤字になってしまった。Nvidiaはどうだろうか。
メモリはSamsung、SK hynix、Micronのトップ3社が92%以上のシェアを取る寡占化市場だが、AIでもNvidiaがGPUで8割を握ると言われるほどの独占的なプライヤーだ。だが、対抗プライヤーはスタートアップも含め徐々にスーパーコンピュータをはじめとするHPC市場にのし上がりつつある。ウェーハ規模の巨大なAIチップを特長とするCerebrasをはじめ、SambaNova、Tenstorrent、EsperantoなどスタートアップたちがNvidiaのチップよりも 桁違いに少ない消費電力を売りにAIチップに乗り込んできている。そしてうれしいことに東京に本社を置く日本のスタートアップEdgeCortixまでが低消費電力で高性能なAIチップをリリースしてきた(参考資料1)。
単なるAIチップメーカーだけではない。AIチップ同士をつなぐネットワークチップでは、Nvidia独自のNVLinkに対抗して、オープンアーキテクチャのネットワークチップを作ろうというコンソーシアムが出てきた。それもAMDやIntel、Broadcom、Google、Hewlett-Packard Enterprise、Cisico、Meta、Microsoftなどビッグネームの企業が集まってきた。彼らはEthernetベースのオープンな技術でAIチップ同士をつなごうといういう訳だ。UALink(Ultra Accelerator Link)と呼ばれるネットワーク技術でAIチップ同士を高速、低遅延でつなぐのだ。
NvidiaのNVLinkは、データセンター内のコンピュータ同士を並列接続して性能を上げられるようにするために開発されたネットワーク技術。ある程度InfiniBandをベースにしたもののようで、InfiniBandの得意なMellanoxを買収してネットワークチップをリリースしてきた。
一方のUALinkもデータセンター内のコンピュータ同士を接続して性能を拡張しようという技術。PCIe(PCI Express)のシリアルインターフェイスの拡張バスを使いながら、CXL(Compute Express Link)プロトコルを使って、CPU同士を結合させ接続する技術である。要は、独自技術のNvidiaのネットワーク技術が業界標準となるUALinkかという対立軸になる。
今年の第3四半期にはUALink 1.0の仕様が出てくるという。この仕様は最大1,024個のAIアクセラレータを接続できるらしい。
AIチップは並列動作の積和演算器とメモリの広いバンド幅を使ってデータの流れに従って演算の旅をするというアーキテクチャであるため、従来のフォンノイマン型から離れたアーキテクチャが有利であることが最近分かってきた。いわゆるデータフローコンピュータアーキテクチャである。少なくともこれまでのNvidiaのGPUは従来型のノイマン型コンピュータアーキテクチャである。1~2年はNvidiaの天下だろうが、その先はもはや混とんとしてくる。AIチップとインターコネクトネットワーク技術が拡張性のあるAI技術を握ることになる。ワクワクする時代に入ることになる。
参考資料
1.津田建二、「日本生まれで多様なファブレス半導体EdgeCortixが本格的なAIチップを発売」、News & Chips , (2024/6/1)