AIとGPUの今後を考える 莫大な投資を無駄にしないために 長谷佳明
メタ・プラットフォームズのザッカーバーグCEOは、2024年10月の第3四半期の決算発表で、10万基以上ものGPU(Graphics Processing Unit)を使ったコンピューターで、AIに関する次世代のオープンモデル「Llama4」を学習中であることを公表した。現行の「Llama3」は、24年3月に公開した同社のブログの中で、2万4578基を用いて学習したと公表している。1年もたたないうちに、AI学習のインフラは約4倍の規模に拡大したことがうかがえる。使われていたGPUはエヌビディアの「H100」であった。 AIに関するコンピューターで高性能GPUは欠かせない存在になった。そして、そのGPUで圧倒的シェアを握っているのがエヌビディアだ。メタの事例がそうであるように、今後もAIに関するGPUはエヌビディアに依存するのだろうか。 ◇AIは互換性を問われない GPUのそもそもの役割であるゲームなどのグラフィックス処理においては、マイクロソフトのようなオペレーティングシステムベンダーの開発する「DirectX」、Epic Gamesのようなゲームプラットフォーマーの「アンリアルエンジン」などに仕様が握られており、その下で動くGPUは、互換性を担保せねばならず、エヌビディア一択ではない。 しかし、AIの世界は異なる。AIのモデルの学習結果はパラメーターの数字列であり、計算さえできれば、学習方法は問わない。AIのモデルの表現形式には、ONNX(Open Neural Network Exchange)と呼ばれるフォーマットがあり、これに対応しさえすれば、さまざまなGPUの環境で推論も動作する。 大規模なモデルになればなるほど、学習に必要な計算量は膨大なものとなる。エヌビディアの環境を用いれば、GPUとライブラリー(特定の機能や操作を実行するためのコードの集合体)に任せて並列処理が効果的に働くため、状況に合わせてエンジニアが一つ一つ手作業でチューニングするなどの手間が省ける。