HPEのネリCEO、「AIにはハイブリッドクラウドが必要」--NVIDIAと新ソリューション発表
NVIDIAと提携、AIのターンキーソリューション 今回のイベントで最大の発表は、NVIDIAとの提携によって実現する「NVIDIA AI Computing by HPE」だろう。 NVIDIA AI Computing by HPEは、NVIDIAとHPEが共同開発したAIソリューション群で、技術だけでなく経済性や人の面でも両社がタッグを組み、企業向けのAIを簡素化する。その第一弾として、ターンキーのプライベートクラウドAIソリューション「HPE Private Cloud AI」も発表した。 これは、NVIDIAのAIコンピューティングスタックとHPEのプライベートクラウド技術を組み合わせたもので、推論のマイクロサービスの「NVIDIA NIM」などを含む「NVIDIA AI Enterprise」を基盤とし、チャットボット/コパイロットなどの生成AIアプリケーションの開発と実装を効率良く行えるという。「3クリック操作で実装できる」とNeri氏。 ラインアップは、「L405 GPU」を4または8基搭載して推論に最適とする「スモール」、同8または16基を搭載して推論と検索拡張生成(RAG)に最適な「メディアム」、「H100 VL GPU」を16または32基でファインチューニングのニーズにも応える「ラージ」と、 GH200 NVL2」を12または24基の「エクストラ・ラージ」の4種類で展開する。 基調講演のステージには、NVIDIAの創業者でCEOのJensen Huang氏が招かれた。Huangは、「AIは過去60年で最大のベースコンピューティングプラットフォームの変革だ」と述べた。「汎用コンピューティングからアクセラレーテッドコンピューティングへ」「CPUからCPUとGPUの処理へ」「命令主導のコンピューティングから意図主導のコンピューティングへ」と変化を説明した。 Huang氏は、AIはモデル、データ、コンピューティングの3つのスタックが必要になり、それぞれが複雑であることから、HPEとの協業が生まれたと述べる。3つのスタックを容易に導入するために、両社は技術面での協業に加え、市場戦略でも手を組む。「顧客の前では1つの会社として協力し、ライフサイクル全体でサービスを提供する」とNeri氏。「両社で生成AIによる産業革命を加速する」とJensen氏は述べた。 基調講演では、ロスアラモス国立研究所がNVIDIAの「Grace Hopper GPU」を搭載した米国発のスーパーコンピューターを構築していること、日本の産業技術総合研究所から2億ドルで受注し、NVIDIAの「H200 Tensor Core GPU」を搭載したHPEの「Cray XD」システムを用いてスーパーコンピューターを構築することも明らかにした。 さらにNeri氏は、AIの処理で課題とされる熱や消費電力の問題についても触れた。 HPEの重要な差別化となっているスーパーコンピューターでは、「TOP500」において、上位10システムのうち4つをHPEが占めている。「Green500」(TOP500の消費電力効率評価)では上位10システムのうち7つをHPEが占めているとNeri氏は説明し、「HPEは、最高レベルのコンピュートパーフォマンスを確実に提供するためのデータセンターインフラの一部として、液冷システムの設計、製造、管理において豊富な経験を持つ」とNeri氏。「われわれの水冷技術は20年の歴史があり、数百件の特許を有している」と胸を張った。 技術だけではないとする。同社の研究機関「HP Labs」は、2019年にAI倫理の原則として、(1)プライバシー重視、(2)人間中心、(3)包摂性、(4)責任性、(5)堅牢――の5つを掲げて取り組んでいることも強調した。 最後にNeri氏は、「HPEは80年以上、イノベーションの最前線でリードしてきた。そして現在、6万人の社員全員が顧客の大きな夢を現実のものにするのを支援する」と会場の顧客に呼びかけた。 (取材協力:日本ヒューレット・パッカード)