OpenAIサム・アルトマンCEOのAIチップ開発で7兆ドル調達の野望、GPU関連スタートアップの台頭など、激変するAIチップ市場の現状
GPUをめぐる大きな変化、GPU不足とNVIDIAの躍進
2024年は昨年に引き続き、生成AI関連の話題が目白押しだ。直近では、NVIDIAの株価が急騰し、2024年3月1日時点における同社の時価総額は2兆ドルに接近、2兆460億ドルで時価総額世界3位のサウジアラムコを超える寸前にある。 現在、時価総額世界1位は、3兆ドルを超えたマイクロソフト。これに2兆8,000億ドルでアップルが続く。アマゾンは1兆8,360億ドルで5位、アルファベット(グーグル)は1兆7,290億ドルで6位という順位だ。2019年4月頃、NVIDIAの時価総額は100億ドルほどで推移していた。この4~5年で20倍に拡大した格好となる。 このNVIDIAの大躍進の背景にあるのが生成AIトレンドとGPU不足だ。2022年11月、OpenAIのChatGPTリリースをきっかけに、生成AIトレンドに火がつき、GAFAMを筆頭に、多くのテック企業が生成AI/大規模言語モデル開発の取り組みを本格化させた。 ChatGPTなどの生成AIツールの裏で稼働しているのが大規模言語モデル。ChatGPTの場合、GPT‐3.5とGPT-4が該当する。この大規模言語モデルの開発・運用で必要となるのが、グラフィックス・プロセシング・ユニット(GPU)だ。CPUに比べ並列処理に強い特性を持つGPUは、機械学習など大量のデータを扱うタスクで重宝されており、大規模言語モデル開発では必須の存在となる。 このAI開発に適したGPUの供給において市場をほぼ独占しているのがNVIDIAだ。市場シェアは80~95%ともいわれており、特に生成AI開発においては2022年にリリースしたモデル「H100」が飛ぶように売れている。データセンター向けのGPUであり、一般的には複数のGPUで構成されるクラスターで販売されているが、1台あたりの価格は2~3万ドルほどと報じられている。 非常に高価なGPUであるが、需要急騰と供給不足が相まってGAFAMを筆頭に昨年から争奪戦が激化。オープンソースの大規模言語モデルLlaMa2などを開発するメタ、またマイクロソフト、グーグル、アマゾン、オラクルなどが数万台以上のH100を注文したと報じられている。 市場調査会社Omdiaの2023年11月時点の推計によると、同年中に履行予定のH100の注文数は、メタが15万台、マイクロソフトが15万台でトップ、これにグーグル、アマゾン、オラクル、テンセントがそれぞれ5万台、スタートアップCoreWeaveが4万台などと続いた。 H100と1世代前のモデルである「A100」を合わせて、通年の販売台数は50万台を超えると予想されていた。これに伴いH100ベースのサーバーのリードタイムも36~52週に上ると見込まれている。注文から実際に商品を受取るまで、9カ月から1年以上かかる計算となる。 2024年、GPUの販売台数はさらに拡大する公算だ。メタのザッカーバーグCEOは2024年1月19日、インスタグラムの投稿で、同社のAIロードマップを説明、目標を達成するには「巨大なコンピュータインフラ」が必要であると述べ、2024年中に35万台のH100で構成させるコンピュータインフラを構築する計画を明らかにした。 同社がすでに有しているA100GPUと合わせ計60万台のGPUで構成されるスーパーコンピュータが登場するという。上記Omdiaの推計が正しければ、メタは2023年に15万台のH100を購入しており、2024年にはさらに20万台を追加することになる。 また、マイクロソフト、グーグル、アマゾンなども横並びで注文数を増やすことが予想されるため、今後しばらくGPU不足の解消は見込めない状況となっている。