分散型AIを可能にするものとは──中央集権化するAIへの対抗軸
オープンソース生成AIがメインストリームになる必要性
オープンソース生成AIなくして分散型生成AIは存在しない。オープンソース生成AIにおけるイノベーションの波は確かに息を呑むほどだが、OpenAI、Anthropic、グーグルに代わる現実的な選択肢となり得るのは、HuggingFace、メタ、Mistral、Stabilityといった数少ない企業のみだ。 セキュリティやプライバシーに強い制約のあるエンタープライズアプリケーションや、規制を受けた業界におけるAIスタートアップは、オープンソース生成AIにとって強力な成長ベクトルであるように思われる。 そのようなシナリオでは、Web3 AIインフラは実行可能な代替手段になり得る。オープンソース生成AIがある程度メインストリームになると仮定すると、次の課題は、生成AIソリューションのライフサイクルの中で、どのユースケースが分散型インフラに適しているかを理解することだ。
分散型AIは推論ゲーム
単純化して言えば、生成AIモデルのライフサイクルは、事前学習、微調整、推論の3つの主要フェーズに分けることができる。 最初の2つは、モデルにデータに基づいて知識を一般化させることに関係し、推論はモデルによって出力される予測に関係する。基盤モデルは、サイズが非常に大きく、複雑な計算が要求されるため、事前学習や微調整の点では分散型インフラはまったく実用的ではない。 数週間から数カ月にわたってデータを取り込み、モデルの重みを再計算できる、高性能通信バスで接続された数百、数千のGPUが必要だ。 言うまでもなく、事前学習や微調整に必要なデータはクラウドデータセンターに保存されていることが多く、分散型インフラに移すには法外なコストがかかる。 推論は、分散型生成AIにとって、はるかに現実的なシナリオであり、間違いなく、現在のテクノロジーの状態で機能し得る唯一のシナリオだ。マーケットの観点からも、推論は生成AIの収益の大きな割合を占めている。 分散型AIは、オープンソースの基盤モデルを使った推論に集中することが明白なので、どのタイプのWeb3インフラがそのようなユースケースをサポートできるかを考える必要がある。