分散型AIを可能にするものとは──中央集権化するAIへの対抗軸
Web3インフラに求められる成長
現世代のブロックチェーンは、推論であっても、大規模な基盤モデルを実行するようには設計されていない。この課題に対処するためには、より大規模で複雑な計算に最適化された新しいブロックチェーンが間違いなく必要だ。オフチェーンでの推論計算は良い妥協点だが、生成AIの中央集権化の懸念に完全には対処できない。
基盤モデルの小型化が必要
マイクロソフトは昨年、Phiと呼ばれる基盤モデルの研究と象徴的な論文「Textbooks is All You Need」に基づき、「小規模言語モデル(SLM)」という用語を作り出した。小規模なPhiはパラメーターがわずか30億、一連のコンピュータサイエンスのテキストで事前学習されており、数学とコンピュータサイエンスのタスクにおいて、700億のモデルを上回る性能を発揮した。 Phiの研究は、より小さく、より特化したモデルが、生成AIの普及に向けた最も重要なステップのひとつであることを示した。Web3インフラが基盤モデルを採用するためにスケーリングする必要があるのと同じように、SLMのトレンドはWeb3インフラ上で実行するモデルをより実用的なものにすることができる。近い将来、Web3インフラで1兆個のパラメータモデルが実行されることはないだろうが、20~30億は間違いなく可能だ。
分散型AIへの困難だが可能な道
分散型生成AIのアイデアは、概念的には簡単なことだが現実的には極めて難しい。AIは当然、ますます中央集権的なテクノロジーとして進化していくため、分散化の取り組みは苦しい戦いとなる。 オープンソース生成AIモデルのメインストリームへの普及は、分散型AIインフラの実現にとって不可欠だ。同様に、生成AIの現状は、分散型AIの初期のユースケースのほとんどが、事前学習や微調整よりも推論に焦点を当てることを示している。 分散型AIを実用的なものにするためには、Web3インフラを桁違いにスケーリングする必要がある一方、基盤モデルはより小さくなり、分散型環境に適応しやすくなる必要がある。 このような要素の組み合わせは、分散型生成AIへの最良の道を示している。その道は極めて困難だが、少なくとも現時点では確実に可能だ。 |翻訳・編集:山口晶子、増田隆幸|画像:Shutterstock|原文:The Enablers of Decentralized AI
CoinDesk Japan 編集部