生成AIの消費電力、全人類のAIアプリケーション利用に必要なのは原発2基
意外と少ない?生成AIの年間消費電力
ChatGPTなどのコンシューマ向け生成AIアプリケーションは着実に利用者を増やしている。OpenAIが2023年11月に明らかにしたところでは、現在ChatGPTの「週間」アクティブユーザー数は1億人に達したという。ChatGPTがリリースされた直後では、「月間」アクティブユーザー数が1億人だったといわれており、約1年で4倍ほどの規模に拡大したことになる。 今後予想されているのが企業における生成AIアプリケーション利用の拡大だ。セキュリティ/コンプライアンスが求められる企業においては、コンシューマに比べ導入速度は遅いものの、今後2~3年かけて爆発的に増加するだろうとの予想が趨勢となっている。 そんな中、生成AIに関する懸念点の1つとして指摘されているのが、生成AIの消費電力問題だ。生成AIはテキスト生成や画像生成において、膨大なデータを処理しつつ、アウトプットを生成する。それが過剰な電力消費につながってしまうのではないかとの懸念が噴出している。 現在のところ包括的かつ公式な調査は実施されておらず、実際どれほどの電力が消費されるのかは分からないが、2023年11月にシリコンバレーで開催された「Digital Workers Forum」で、専門家から興味深い発言があり注目されている。 その発言とは、メタの生成AIエンジニアリング部門責任者セルゲイ・エドゥノフ氏によるもの。 エドゥノフ氏は同フォーラムにおいて、昨今の高まる生成AI需要を鑑み2024年の消費電力を計算したところ、全人類が生成AIアプリケーションを利用するために必要な電力は、原発2基でまかなえると述べたのだ。 エドゥノフ氏は、これは綿密な計算ではなく概算であることを認めた上で、生成AIの「推論」にどれほどの電力が必要なのかを推計する上で良いたたき台になるだろうと述べている。 生成AIの消費電力を考える際、大きく2つのパートを考慮する必要がある。1つは「トレーニング」、もう1つは「推論」だ。 生成AIのトレーニングとは、収集した膨大なデータをモデルに入力し、モデルがそのデータからパターンや関連性を学習するプロセスのことを言う。推論とは、トレーニングされたAIモデルが学習したパターンに基づいて、ユーザーが入力したプロンプトに対し関連性の高いデータを推論・生成するプロセスのこと。 ChatGPTを例にとると、ユーザーが同アプリケーションを利用する際に実行されているのは「推論」プロセス。一方ChatGPTの稼働に必要なGPT-3.5やGPT-4モデル自体を開発するのに必要となるのが「トレーニング」プロセスとなる。 エドゥノフ氏は、「推論」プロセスにおける消費電力を原発2基でまかなえると推計しているが、この結論に至るロジックは以下のようなものだ。 まず前提条件として同氏が示したのは、推論プロセスにおいてNVIDIAの最新GPU「H100」を利用すること。H100は1つあたり700ワットの電力を消費する。これにデータセンターや冷却用の電力を加え、H100GPU1つあたりの消費電力を1KWとし、全人類が毎日10万トークンを生成AIアプリケーションで利用すると仮定した。 トークンとは、生成AIモデルが処理するデータの単位。OpenAIが利用しているトークン化アルゴリズムでは、100トークンあたり英語75ワードほどに換算される。日本語では100トークン、100文字ほど。つまり1人あたり、チャットAIへの入力(プロンプト)と出力(生成)を合わせて、英語で7万5000ワード、日本語で10万文字に相当するやり取りが毎日発生するという想定だ。