AIとGPUの今後を考える 莫大な投資を無駄にしないために 長谷佳明
エヌビディアは、GPUの性能もさることながら、GPU間を高速なネットワークで接続するなど拡張可能なアーキテクチャーと、CUDA(Compute Unified Device Architecture)を基盤としたソフトウエアを、10年もの歳月をかけて熟成させてきた。その完成度は高く、今のところ他社の追随を許していない。 ◇他社もエヌビディアを追うが… AMD(アドバンスト・マイクロ・デバイセズ)は、16年からエヌビディアのCUDAに相当するROCm(Radeon Open Compute)と呼ばれる、AMDのGPU向けのライブラリーをオープンソースとして提供している。オープンソースで成功させるには、ユーザーを増やさなければならない。しかし、ユーザーを増やすには、ライバルを凌ぐ性能や時に低価格が必要になるが、それを達成することは簡単ではない。ROCmは、CUDAの誕生から10年後の誕生であり、現状のエヌビディア相当のソフトウエアの成熟度に達するには、投資と時間がなおも必要になるだろう。時間がかかれば、エヌビディアはさらに先に行ってしまうジレンマに陥っているのではなかろうか。 グーグルやアマゾンなどのメガクラウドベンダーも、自社のサービス向けに、AI用半導体を以前から開発している。グーグルは16年5月、AIの推論用に特化した「Tensor Processing Unit(TPU)」を発表している。今でこそ、学習用も開発しているが、当初は、比較的軽量な推論を対象としていた。膨大な演算が必要となるモデルの学習はエヌビディアのGPUに任せ、今後AIの普及に伴い利用が増加する推論に高いニーズを見いだしたのではないかと推測される。 しかし、この状況は、ChatGPTの登場により方向転換を余儀なくされた。AIは大規模言語モデルをはじめとした規模の時代を迎え、推論にも、大量のリソースが必要になったからである。これは、メガクラウドベンダーにとっても想定外であったに違いない。