ハイレゾ香川、香川県高松市に中四国初のAI開発用GPUデータセンターを開設
2024年12月19日、ハイレゾ香川は、香川県高松市に設置したGPUデータセンターの開所式を執り行なった。GPUデータセンターは、AIの研究開発に欠かせない施設であり、国内でも相次いで設置が行なわれているが、ハイレゾ香川のGPUデータセンターはNVIDIAの最新AI向けGPU「NVIDIA H200 Tensor コア GPU」(以下H200)を採用し、競合他社に比べて70%も安い価格で、H200の高い演算能力を提供することが特徴だ。同社が提供するH200をリーズナブルな価格で利用できるサービスは、AIの研究開発に携わる企業や研究機関にとって待望のサービスであり、日本のAI開発を大きく加速する可能性がある。 【画像】ハイレゾ香川が香川県高松市に開設したGPUデータセンターの外観。RISTかがわの一部を借りて、内部を改修したものだ ハイレゾには、さまざまな企業が資金調達などで協力しており、GALLERIAやドスパラでお馴染みのサードウェーブも出資している。サードウェーブのご紹介により、開所式へ出席することができ、普段は公開していないGPUデータセンターの中を特別に見学させていただいたので、その様子をレポートする。 ■ 「GPUデータセンターは新たな国策」。開所式には香川県知事、高松市長など約120名の自治体関係者が列席 高松市に設置されたGPUデータセンター(高松市データセンター)の開所式は、サンメッセ香川のサンメッセホールで行なわれ、ハイレゾ香川代表取締役の志倉氏をはじめ、香川県知事の池田氏、高松市長の大西氏、株式会社日本政策投資銀行 常務執行役員の増田氏など、約120名が出席した。 最初に株式会社ハイレゾ香川 代表取締役の志倉喜幸氏が次のように挨拶を行なった。なお、ハイレゾ香川は、株式会社ハイレゾの完全子会社であり、志倉氏は株式会社ハイレゾの代表取締役でもある。 「本データセンターは、地方創生と日本のAI産業の発展に向けた私たちの取り組みの中枢を担う重要な拠点です。地域経済の発展や雇用の創出、さらには次世代を担う人材育成に貢献する場として機能していくことを目指しています」 次に、香川県知事の池田豊人氏が、「生成AIを支えるGPUデータセンターの整備は国策として進める必要があります。そうした中で、データセンターの設置場所の1つにこの香川を選んでいただいたことを大変光栄に思います。香川においても、人手不足が大変顕著になる中で、生成AIを産業の中に、生産性の向上のために取り組んでいく動きが急速になってきており、そのプロセスの中で生成AIはなくてはならないものであると思います。このデータセンターが香川にあるということが、香川の企業の生成AIの導入にアクセルになると期待をしています」と祝辞を述べた。 続いて、高松市市長の大西秀人氏が、「ChatGPTが出てから、生成AIが世界中を席巻しています。その開発のためには高度な計算能力を有する高性能GPUが必要で、そのGPUを使ったクラウドサービスの需要がどんどん増えています。AI専用のGPUデータセンターがこの高松市とこれから綾川町に設置されるということは本当に画期的なことで、スマートシティという形でIT行政を進めてきている我々としましても、本当に嬉しい、力強い限りです」と祝辞を述べた。 来賓からの祝辞の最後として、株式会社日本政策投資銀行 常務執行役員の増田真男氏が次のように、資金調達の苦労について語った。 「私たちは、年間千数百件の投融資をやっておりますが、ここまで社会的に意義の高いプロジェクトはなかなかお目にかかることがありません。生成AIが日本の経済社会を大きく変えていくだろうと。そのための計算資源を確保するという大義もあり、またスタートアップの躍進や地域経済の活性化の起爆剤にもなると。いろんな意味で日本経済を良くするためのエッセンスの詰まったプロジェクトに弊行が関われたことを大変嬉しく思っております。一方、その画期的なプロジェクトも資金調達を、私どもが担当させていただきましたが、必ずしも順調に進んだわけではなく、途中度々苦しい場面もございました。しかし、関係者の皆様のご協力と最高のご努力を皆様にいただいたことで無事資金調達もまとまりました。この高松市まデータセンターで終わりということではなく、綾川町のデータセンターが後続に控えております。幸い、資金調達の苦しみはございましたけれども、綾川町の分まで手配済みでございますので、資金調達についてはご心配なく」 ■ 初代デジタル大臣や内閣府副大臣、東大松尾教授のビデオメッセージも 続いて、衆議院議員 初代デジタル大臣 平井卓也氏、衆議院議員 内閣府副大臣の瀬戸隆一氏、東京大学大学院工学系研究科 松尾豊教授によるビデオメッセージが流された。 ここでは、日本のAI研究の第一人者である松尾教授のビデオメッセージの内容を紹介する。 「東京大学でAIの研究、教育をしております松尾です。昨年からは内閣府のAI戦略会議の座長も務めさせていただいております。また、香川県の産業AI参与にもご指名をいただいております。このデータセンターが香川県のAIの発展に大きく寄与すること、大変嬉しく思っております。2022年のChatGPTの登場以降、 生成AI技術の開発競争が世界的に加速しています。特に生成AIにおいては、データパラメータ数、計算量を大きくすればするほど性能が上がるというスケール測というものがあり、より性能の良いAIを作るためにはより大きな計算資源が必要になるということで、AI開発の規模はますます数拡大しています。その結果、大規模なAIの学習を支えるGPUの需要が急増し、GPUを提供するNVIDIAの企業価値が世界一になるなど、その経済的影響を如実に示しています。データセンターの役割がこれまで以上に重要になり、海外のビックテック等はこうしたデータセンターの拡充に多額の投資を行っています。日本でも、こうしたAI開発を支えるデータセンターの整備というのは非常に重要です。先日、石破総理がAI半導体産業に2030年までに 10兆円規模の公的支援を行うということを表明されましたが、まさにこのデータセンターはAI時代になくてはならないインフラになります。私の研究室でもAIの研究開発のために、GPUを毎日大量に使っており、AIの研究開発には必要不可欠なものです。こうした拠点が香川県にできますことで、AIの開発においても地元企業を含めて非常に活性化することが期待され、AI人材が香川県の中で増えていくということにも繋がると思います。香川県の様々な産業と触れ合いが組み合わさることで新たな産業競争力につながってくるいうことを非常に楽しみにしております」 最後に、主催者や来賓9名によるテープカットが行なわれ、開所式は終了した。 ■ GPUデータセンター内部も特別に公開 開所式の後、報道関係者向けにGPUデータセンターの内覧会が実施された。通常、データセンターはセキュリティ確保のために見学などは一切許可されていないことが多い。ハイレゾ香川の高松市データセンターについても、内部の見学は基本的に許可していないとのことだが、今回、開所式にあたって特別に内部の見学や写真撮影が許可された。ただし、撮影は自由にできるのではなく、決められた場所から決められた角度でしか許可されなかった。 高松市データセンターは、かがわ産業支援財団が設立したRISTかがわと呼ばれる研究機関の一部を借り、その内部を改修することで建設された。公開された部屋は、両側にサーバーラックが13台ずつ並んでおり、合計26台のサーバーラックが設置されていた。サーバーラックの大きさは30U(Uは高さを表す単位で1Uが1.75インチ)で、特注品だとのことだ。このサーバーラックに収納されるHGX H200は8Uサイズであり、1つのサーバーラックに2台または3台のHGX H200を収納できる。 サーバーラックの下に黒い鉄骨が見えることが気になったが、これはこの部屋がもともと実験室として使われており、排水のために床の中央部が高くなり、周囲が低く湾曲しているためだという。 ■ 生成AIの開発にGPUが必要な理由 本誌読者なら、GPUといえば、最新ゲームを快適にプレイするのに必要なパーツだと思っている人が多いだろう。その理解は正しいのだが、AIの研究開発にもGPUは必要なのだ。その理由を説明しよう。 GPUは、Graphics Processing Unitの略で、もともとその名の通り、画像を処理するためのパーツである。画像処理では、同じ処理を非常に多くの数繰り返すことが多い。単純な例として、ある画像全体の明るさを明るくする場合は、すべてのドットに対して、明るさの値をプラスしていくことになる。GPUはこうした繰り返し処理を高速に行うため、非常に多くのコア(計算処理を行うユニット)を搭載し、並列動作する仕組みになっている。例えば、NVIDIAのRTX 4090なら16,384基ものコアが搭載されている。ただし、GPUのコアは一つ一つの規模が小さく、比較的単純な計算に特化している。 それに対し、CPUは複雑な処理を行うことを得意としており、大きく複雑なコアを搭載している。最近はCPUのコア数も増えているが、それでも通常は4コア~22コア程度であり、GPUに比べると数百分の1以下である。そのため、画像処理でよく用いられるような単純な計算を多く繰り返すときの性能は、GPUの足元にも及ばない。 本来、GPUは画像処理のためのパーツだったのだが、実はAI開発との相性も非常によいのだ。詳細は省くが、AIにおいても、画像処理と同じように比較的単純な演算を多くの対象に対して繰り返すことが多いのだ。AI需要の大きさに目を付けたNVIDIAは、数年前からAI専用に特化したGPUを開発することで、大きく成長したのだ。 さらにAI分野でのGPU需要を押し上げることになったのが、2022年11月に公開されたChatGPT以降、急速な成長を遂げている生成AIだ。生成AIは、AIの一分野であり、文章を生成するLLMや画像と文章、音声など異なる要素を一緒に扱えるマルチモーダルAIがその代表だ。生成AIは、従来の画像を認識したり、異常値を見つけ出すようなAIに比べて、学習に遙かに大きな演算が必要になる。生成AIでは、学習に使うデータの数を増やせば増やすほど、AIの性能が上がる(より賢くなる)スケール則という経験則があるので、GPUはいくらあっても十分ということはないのだ。実際にり、OpenAIやMeta、Googleといった大手AI開発企業では、数万個規模の最新AI向けGPUを使って、AIの学習を行なわせている。 生成AIは、すでに社会のさまざまな場所で使われているが、ゲームやアニメにおいても生成AIによって作られた映像や音楽を使ったり、NPCとのより自然な会話を実現するといった場面で使われている。また、ゲーム開発の現場においても、AIによるテストプレイが浸透しつつある。今後は、プレイヤーの苦手なアクションをAIが判断し、うまくアシストしてくれるシステムなども考えられ、ゲームの進化においてもAIがより重要な役割を果たすようになるだろう。 ■ 冷却は完全循環方式で、フル稼働時にはCopilot+ PC約8万台に匹敵する演算性能を実現 GPUデータセンターの見学後、株式会社ハイレゾ執行役員の福島修氏への囲み取材で、より詳しいことが明らかになった。以下にその内容をまとめる。 高松市データセンターの投資額は約100億円で、延床面積は687平方メートル。最終的にHGX H200を100台設置する予定だが、開所式時点ではまだ10台しか設置されていない。ただし、12月1日から実際の運用が始まっており、すでにお客様が利用していて、計算資源が埋まっている状態だ。今回公開された部屋以外にもう一つ同じような部屋を作る予定で、サーバーラックの数は13×4で合計52となる。そのうち4つのラックにはGPUサーバーは搭載しないが、48のサーバーラックに最終的に100台のサーバーが搭載されることになる。 GPUサーバーの数は年内には51台になり、今そのための電源工事を急いでいるとのことだ。2025年6月までには100台の設置が完了する予定である。GPUサーバー(HGX H200)1台に対して、8個のGPU(NVIDIA H200)が搭載されているため、GPUの数は合計で800個となる。サーバー1台での演算性能は約32PFLOPSであり、Copilot+ PCの要件である40TOPSと比べると、約800台分に相当する。GPUサーバーが100台設置され、フル稼働が開始されると、合計でCopilot+ PC約8万台分に相当することになる。ハイレゾでは、これまで石川県などにGPUデータセンターを設置しており、GPUの数をすべてあわせると1万以上になり、国内有数の規模となる。 高松市データセンターの設計で苦労した点は冷却だと福島氏は語った。 「限られたスペースにエアコンがギチギチに並んでいます。既存のレールも一切取り外していないので、なんとか設計上必要なエアコン台数を入れることができました。DGX H200サーバーが1台当たり10kWの電力を消費するので、エアコンは一部屋に十数台入れています。」 データセンターの冷却は大きく分けて、開放方式と循環方式がある。開放方式は建物の外に熱い空気の排気を行い、外から冷たい外気を導入する方式だが、高松市データセンターでは循環方式を採用しており、外気を導入していない。その理由は、外気を導入すると湿度の管理が難しくなるからだという。 「石川県のデータセンターのメインサーバールームでは外気冷却をやっていますが、それはPCI ExpressのGPU搭載で、ハイエンドサーバーじゃないんです。ハイエンドは湿度管理もよりシビアになるのでエアコン付きのとこに置いています。 ハイレゾでは、高松市データセンターの計算資源を「AIスパコンクラウド」というサービスで提供している。このAIスパコンクラウドは、業界最安級で使えることが特徴であり、AWSが提供しているH100インスタンス(クラウド経由で利用できる仮想的なコンピューターのことに比べて、70%以上安い値段でH200インスタンスを提供している。その理由を福島氏は次のように説明した。 「安く提供できる理由の一つは、RISTかがわをお借りできたことですね。それによって施設費が安く済んでいます。また、計算力の提供の仕方が、いわゆるバッチ処理になっていて、決められた時間にスタートする感じで、ずっと連続稼働するという要件を外しているのです。そのためUPS(無停電電源装置)もデータセンター全体に完備しているのではナック、超重要なサーバーのみUPSを入れてます。それでコストがかなり下げられます。とは、弊社はGPUの取り扱いの経験が豊富で、GPUエンジニアもきちんとおりますので、無闇にサービスを増やすのではなく、お客様が本当に使いたいサービスだけに絞ってサービスを提供しています。また、使い勝手にも気を配っていて、ブラウザ上で簡単に設定でき、使い始めることができます。そのあたりがベンチャーから大企業まで広く支持されている理由でしょうか」 ■ 2025年8月に綾川町の廃校を改修し第二拠点を開設予定 新世代のB200を採用予定 今回、高松市に開設されたGPUデータセンターは第一拠点であり、2025年8月には香川県綾歌郡綾川町に第一拠点と同規模の第二拠点を開設予定である。こちらは、2022年3月31日に統廃合のため廃校となった、旧綾上中学校を改修することが特徴だ。具体的には体育館をGPUデータセンターにする予定のことで、規模は第一拠点と同じくGPU8基を搭載したサーバー100台を設置することになるが、H200だけではなく新世代のB200も導入していきたいと、福島氏は囲み取材で明らかにした。 「B200はまだ正確な納期が出ておらず、ちょっと計画が難しいので、設備自体はどちらにも対応できるように電源は引いておいて、実際の供給に合わせて、B200が間に合えばB200を入れていきます」(福島氏談) 旧綾川中学校の体育館にはピロティがあり、その部分にサーバーが設置されることになるという(つまり体育館の床の下)。 B200は、NIVDIAが2024年3月に発表した新生代AI向けGPUだが、当初の予定よりも出荷が遅れており、2025年1月から出荷が開始される予定である。B200は、H200に比べて演算性能が2.25倍に強化されているほか、メモリも141GBから180GBに増えており、さらに高い性能を誇る。 第一拠点が提供する演算資源はすでに半分以上が予約済みだということだが、第二拠点が稼動を開始すれば、第一拠点と同等以上の演算資源を提供できるようになるため、より大規模なAI開発が可能になる。第二拠点の稼動開始にも期待したい。 第二拠点が完成すれば、ハイレゾ香川の演算資源は合計で最低でも、Copilot+ PC約16万台以上に相当することになる。第二拠点がすべてB200になれば、合計でCopilot+ PC換算で約26万台相当になり、LLMやマルチモーダルAIの学習をより短時間で行えるようになるだけでなく、より人間に近い、感情を理解し、身体性を備えるAI実現への道が開けるであろう。
GAME Watch,石井英男