「AI活用はクラウドだけでは完成しない」―Lenovo幹部が語るハイブリッドAI戦略
AI時代にLenovoが掲げるのが「ハイブリッドAI」ビジョンだ。年次イベント「Lenovo Tech World 2024」の会場で、その意味やLenovoとしての「強み」、NVIDIAとの提携による新サービスなど、同社インフラソリューションズグループ(ISG)幹部に聞いた。 【もっと写真を見る】
AI時代におけるLenovoの戦略は、1年前に打ち出した「ハイブリッドAi(Hybrid AI)」だ。スマホやPCからサーバー、エッジデバイスまで、幅広いハードウェア製品をラインアップする同社は、その旗印の下でどのような戦略を描くのか。 今年10月、Lenovoが米国シアトルで開催した年次イベント「Lenovo Tech World 2024」の会場で、Lenovoのインフラソリューショングループ(ISG)幹部を務めるウラジミール・ロザノヴィチ氏に話を聞いた。 「AI活用のためのITインフラは、クラウドだけでは完成しない」 ――現在のLenovoがキーワードとして掲げる「ハイブリッドAI」ですが、どのように定義される言葉でしょうか。 ロザノヴィチ氏:ハイブリッドAIという言葉には、さまざまな意味が込められている。 ハードウェアベンダー各社は、すでに「ハイブリッドIT」という言葉を掲げている。業務アプリケーションの実行形態として、旧来のオンプレミスから、いったんはクラウドへの移行が進んだ。しかし、データセキュリティやプライバシーへの懸念、管理権限を自社で持ちたいといったニーズがあり、クラウドとオンプレミスの組み合わせ(ハイブリッド)を求める顧客の声が強まった。それを実現するのがハイブリッドITだ。 これと同じことが、AIの領域でもこれから起きるだろう。AI活用のためのITインフラは、クラウドだけでは完成しないからだ。 現在、AIを開発/実行する環境として、多くの場合はクラウドが使われている。大規模なインフラ、キャパシティ、電力容量を持ち、AIニーズを理解したエンジニアも有しているからだ。今後も、LLM(大規模言語モデル)のトレーニング処理のような大規模なリソースを必要とするケースでは、クラウドやGPUサーバーサービスが活用されるだろう。 一方、トレーニング済みのLLMが実行されるのはクラウド上だけではない。推論やRAGの処理フェーズでは、処理対象のデータが必要となるが、顧客情報や機密情報といったデータをクラウドに動かしたくない。そのため、オンプレミスやエッジ(デバイスを含む)でも、LLMを実行することが必要になると考えている。 これを実現するのがハイブリッドAIだ。基盤モデルの学習はクラウドで実行しつつ、自社固有のデータによる再学習(ファインチューニング)はオンプレミスで行う、パーソナルデータを用いた推論はパーソナルデバイスで行う、といった役割分担を行う。パラメーター数の少ないSLM(小規模言語モデル)で十分な場合は、クラウドを使わず、オンプレミスでも基盤モデルの構築から実行できるだろう。 ――しかし、ハイブリッドAIの基盤はハイブリッドITであり、そこには多くのハードウェアベンダーが注力しています。Lenovoならではの「強み」はどこにあるのでしょうか。 ロザノヴィチ氏:Lenovoの強みとしてまず挙げられるのが、エッジからクラウドまでをカバーするプラットフォームを提供できる点だ。大規模なデータセンターから零細企業まで、Lenovoの顧客ベースは幅広いが、このプラットフォームが顧客のあらゆるニーズに応える。 また、Lenovoでは「AI活用がどういうビジネス成果を生むのか」という視点も大切にしている。顧客のハイブリッドAI支援に携わるのも、データセンター製品を提供するISG部門だけではない。AIコンサルティングを実践するソリューションサービスグループ(SSG)があり、専門性の高いコンサルティングを通じて、顧客が達成したいビジネス成果の定義や達成を支援する。 さらに、ビジネス成果実現に必要なサービス要素を考えると、Lenovoのチャネルパートナーの役割も重要だ。チャネルパートナーと協力し、補完し合いながら、ハイブリッドAIに向けたサービスを提供していく。 NVIDIAと提携し「Lenovo Hybrid AI Advantage」を発表 ――ハイブリッドAIの領域で、新たにNVIDIAとの提携によるサービス「Lenovo Hybrid AI Advantage」を発表しています。これはどんなものか、教えてください。 ロザノヴィチ氏:これはSSGから提供するサービスだ。「NVIDIA Enterprise AI」の一部であるNIM(推論用マイクロサービス)のソフトウェアスタックを活用し、LenovoからAIコンサルティングを提供する。 その際、「マーケティング」「ITオペレーション」「プロダクト開発」「顧客サービス」など、さまざまな用途のAI活用に対応したAIテンプレート「AI Library」も活用する。こうした特徴により、素早くビジネス成果を得ることができ、構成の複雑さも最低限に抑えられる。 ちなみに、このサービスはLenovoのハードウェアを導入していない顧客でも利用できる。 ――AIの導入と活用を通じてビジネスメリットを得るために、企業はどのような準備が必要だと考えますか? ロザノヴィチ氏:世界中のCIOやCTOと話をする際には、まず始めに「どのようなビジネス成果を得たいのか」「何を解決したいのか」を尋ねている。AI導入と活用に取り組む企業は、まずこれを明確にしておく必要がある。 求める成果を明確にすれば、大げさな計画や投資が回避できることもある。AIシステムをオンプレミスに導入すると言っても、必ずしもハイエンドのGPUサーバーを購入しなければならないわけではない。推論のみの実行、小さなモデルのみの学習であれば、そうしたシステムなしでも始められる。 AIのユースケースとして、カスタマーサービスのチャットボット、コードの生成といった簡単なものから実装が始まっている。Lenovoでは、AIのユースケースを開発するISVを“AIイノベーター”と位置付けており、ユースケースに合わせて協業している。 GB200 GPUと水冷システムを搭載した「ThinkSystem SC777」を発表 ――Lenovoの水冷技術「Neptune」を用いて、NVIDIAの最新GPUである「Grace Blackwell(GB200 Superchip)」を搭載した「ThinkSystem SC777」も披露しました。イベントでは、AMD、Intel、NVIDIAの3社のCEOが登壇しています。GPUは供給不足と言われますが、Lenovoではどうチップを確保しているのですか。 ロザノヴィチ氏:GB200を搭載したThinkSystem SC777では、多様な技術を組み合わせた最も効率の良い冷却ソリューションを用いている。Lenovoは、排熱除去効率100%を実現するために大きな投資をしており、さまざまな独自技術も持っている。GPUやCPUに冷却プレートを取り付け、それを(熱伝導率の高い)銅製の液冷システムに接続することでちっぷれえるでは100%の排熱除去を実現している。 チップの供給状況について言うと、1年前はGPUを入手するために1年を要していた。ただし現在、その状況は大幅に改善されている。 Lenovoがチップを確保できている背景として、やはりチップベンダーとの良好な関係、そして調達規模の大きさがある。チップベンダー3社のCEOが同じ日に、LenovoのCEOと共にステージに立ったことが、それを証明している。Lenovoは世界最大のPCメーカーであり、データセンタービジネスも成長している。2024年の第1四半期、ISG単体では前年比で65%もの成長を遂げた。 もちろんLenovo側からも、顧客の実装ペースを見て、その情報をチップベンダーと共有するようにしている。潜在的なパイプラインが見えていれば、チップベンダーは優先的に供給すべく動いてくれる。在庫は抱えたくないが、顧客の需要を満たすために可能な限り早期に注文を出すようにしている。 ――LenovoはAIに20億ドルを投じる計画を明らかにしています。インフラソリューショングループ(ISG)の優先分野について教えてください。 ロザノヴィチ氏:Lenovoはポケットからクラウドまで、広範なポートフォリオを持つ。その中でも現在、AI投資の多くはわれわれISGに割り当てられており、冷却技術、AIイノベーターなどの開発を進めている。そこにはシステム管理ツール「XClarity One」へのAI機能、障害予測といった機能拡充のための開発も含まれる。 ――日本市場において、企業のAI活用をどのように見ていますか? ロザノヴィチ氏:イベント期間中には、日本の大手テクノロジー企業などとミーティングを持った。 Lenovoにとって日本市場は重要であり、なおかつ良好に推移している市場だ。“GPU-as-a-Service”の「Lenovo TruScale」は、トヨタ自動車が大口の顧客となっており、TruScaleを利用して、衝突試験のシミュレーションなどを行っている。 文● 末岡洋子 編集● 大塚/TECH.ASCII.jp