複数のタスクを同時にできる人間の脳のすごさ。やがて生成AIを上回る技術革新が生まれる――
人工知能研究はこのままでよいか? 二酸化炭素排出の問題
生成系AIの爆発的な進展は目を見張るものがあり、その物理学的基礎を築いた学者にノーベル物理学賞が授与されたこと自体、人工知能研究、物理学研究の将来の発展を加速させ得るという意味で喜ぶべきことだろう。さらに、化学賞も機械学習が対象になったことは、人工知能研究をさらに後押しするだろう。 しかしながら、大いなる危惧も存在する。これまで、機械が意識を持ち、意志を持つことで人類の未来を脅かすことに対する倫理的対応の議論がなされてきた。ここでは少し異なる視点で”危惧“について考えてみたい。それは、今のAI研究を維持するだけのエネルギー確保の問題であり、二酸化炭素排出の問題である。 現在の生成系AIは膨大なニューロン数とパラメーター数から成り立っている。およそ、数千億から1兆である。さらに、膨大なデータによる膨大な学習が必要である。ビッグデータを処理できるようになったが、それを支えるのは膨大な学習量である。このため膨大なエネルギーが必要になっている。 さまざまな研究論文やそれをまとめたスタンフォード大学の報告によると(2023 AI Index Report、引用されているデータに関する最新の研究論文はV. Bolon-Canedo et al., Neurocomputing 599(2024)128096)、大規模言語モデル「BLOOM」が言語を学習する際に排出した 量は25トンであるという。これは人間一人が呼吸によって1年間に排出する 量、約365kg(全人類で約29億トン:地球環境研究センター試算)のおよそ68倍に相当する量だ。消費電力量は400MWh(メガワット時)を超える。これは平均的なアメリカ人家庭のおよそ40年分の電力量に相当するという。しかしこれは少ない方で、「GPT-3」が機械学習の際に排出した二酸化炭素量は500トンを超えると試算されている。消費電力量は約1,300MWhであり、これは原子力発電1基の1時間分の電力量(約1,000MWh=100万キロワット時)を上回っている。 日本では、NTTグループが学習コスト低減研究を行っており、「tsuzumi」は学習データが3千億トークンの場合に学習コストを1/300に、推論コストを1/70にできるとしている(NTT 東日本発表)。日本はこういった技術革新が得意なので大いに期待したい。