IBM、IBM Cloudに「AMD Instinct MI300Xアクセラレータ」を導入
米IBMと米AMDは現地時間18日、IBM Cloudのサービスとして、AMD Instinctアクセラレータを導入するための協業を発表した。サービスは2025年上半期での提供開始を予定し、生成AIモデルや、顧客ハイパフォーマンスコンピューティング(HPC)アプリケーションのパフォーマンスと電力効率の向上を目的としている。この協業により、AIおよびデータのプラットフォームであるIBM watsonx上で、AMD Instinct MI300Xアクセラレータのサポートや、Red Hat Enterprise Linux AIの推論のサポートも可能になる。 IBMとAMDは、MI300XアクセラレータをIBM Cloud上のサービスとして提供し、AIを活用する企業を支援できるように協力している。規制の厳しい業界を含む、さまざまな業界の企業顧客を支援するために、IBM Cloudのセキュリティおよびコンプライアンス機能を活用する。 大規模モデル推論のサポートでは、192GBの高帯域幅メモリ(HBM3)を搭載したAMD Instinct MI300Xアクセラレータは、最大規模のモデル推論と微調整(ファインチューニング)をサポートする。また、大容量メモリにより、顧客はより少ないGPUで大規模なモデルを実行可能となり、推論のコストを削減できる可能性がある。 パフォーマンスとセキュリティーの強化では、AMD Instinct MI300XアクセラレータをIBM Cloud Virtual Servers for VPC上のサービスとして提供し、IBM Cloud Kubernetes ServiceとIBM Red Hat OpenShift on IBM Cloudによるコンテナサポートを利用することで、AIアプリケーションを実行する企業のパフォーマンスを最適化できる。 IBMは、生成AIの推論ワークロード向けに、AIおよびデータのプラットフォームであるIBM watsonx上でAMD Instinct MI300Xアクセラレータをサポートする計画。これにより、watsonxを使用する顧客に、ハイブリッドクラウド環境全体でAIワークロードを拡張するための追加のAIインフラストラクチャーリソースを提供する。また、Red Hat Enterprise Linux AIおよびRed Hat OpenShift AIプラットフォームでは、MI300Xアクセラレータ上でInstructLabを使用したアライメントツールで大規模言語モデル(LLM)のGraniteファミリーを実行できる。 IBM Cloud with AMD Instinct MI300Xアクセラレータは、2025年上期に提供開始する予定。
クラウド Watch,三柳 英樹