ハイレゾ、LLM・マルチモーダルAIに適したNVIDIA H200搭載の「AIスパコンクラウド」を提供
株式会社ハイレゾは2日、LLM・マルチモーダルAIに適したNVIDIA H200を搭載するクラウドサービス「AIスパコンクラウド」を提供開始した。 【画像】料金プラン AIスパコンクラウドは、NVIDIA H200を搭載したGPUインスタンスが使えるクラウドサービス。HGX H200インスタンスは、H100の1.7倍のGPUメモリ(1128GB)を搭載し、大規模なLLMモデルの処理が行える。 ハイレゾでは、海外大手企業のHGX H100と比較して、約70%安い料金で上位機種のHGX H200を提供すると説明。また、HGX H200をオンプレミスで導入するには、大規模な電源や空調設備、サーバールームなど大きな設備投資が必要となるが、AIスパコンクラウドは初期費用はかからず、月額料金のみで利用できるとしている。 H200は、H100に比べて1.7倍のGPUメモリを搭載し、膨大なパラメーターをもつLLMモデルに対応可能。また、LLMで重要視される「GPUメモリ帯域幅」も、H100の1.4倍に向上しているため、データ転送がさらに高速化し、計算速度が向上している。 ユーザーはインスタンスにソフトウェアを自由にインストールでき、Python、PyTorch、TensorFlow、JupyterLabなど、機械学習に必要な環境を構築できる。DockerHUBやNGC(NVIDIA GPU Cloud)などのリポジトリから取得したDockerイメージにより、コンテナを簡単に作成でき、環境構築にかかる時間も削減できる。 GPUインスタンス構成は、1台のスタンドアロン構成からGPUインスタンスを連結したクラスタ構成まで利用可能。インスタンスを専有して利用できるため、順番待ちなく利用できる。 料金プランは、H200×1ノードのスタンドアロン構成の場合で月額278万3000円(税込)。複数ノードのクラスタ構成の場合は要問い合わせ。
クラウド Watch,三柳 英樹