AIは「汎用技術」になりうるのか 大きなAIと小さなAIの考え方 長谷佳明
一方で、AIの発展は別の方向性もある。これまでのモデルは大規模化で発展してきたが、いま逆に、モデルを一定の用途に特化させて小型化する動きもある。 マイクロソフトは24年4月、小規模で高効率を目指したモデル「phi-3シリーズ」を公開した。テキスト解析用でパラメーター数が140億の「phi3-medium」と70億の「phi3-small」、画像や動画を解析可能な「Phi-3.5-Vision」などである。 マイクロソフトが公開した論文「Phi-3 Technical Report: A Highly Capable Language Model Locally on Your Phone」(スマホで使える高機能な言語モデル)によれば、限定的な用途であれば、大規模モデルに匹敵する推論性能を持ち、スマートフォンのようなリソースの限られた環境でも動作するよう設計されている。 小規模モデルは、一定条件下で商用利用を許可したオープンモデルとして、マイクロソフト以外にもグーグルやメタ・プラットフォームズなどもリリースしており、今後、用途に合わせてモデルを使い分ける動きが加速するだろう。 ◇大きなAIと小さなAIの可能性 大規模モデルは汎用性を高めた結果、高度な推論能力を持つものの、維持管理に莫大なコストがかかり、提供者も限られる。一方で小規模モデルは、用途に応じてさまざまなタイプが開発されて小回りが利く。両者を対比し「大きなAI」と「小さなAI」と名付ける。 小さなAIは、活用シーンに合わせた柔軟性がメリットで、スマートフォンなど身近な「モノ」に組み込まれてユーザーに寄り添い、その人の状況やその環境を最もよく知る存在となる。小さなAIで解決できない問題は、大きなAIの知的リソースを必要に応じ利用し、推論能力を拡張する。大きなAIは、高い推論能力と一定の品質を維持した安定性がメリットであり、解決したい「コト」を目指して活用される。