MITスピンオフ企業が開発した「リクイッド・ファウンデーション・モデル」、トランスフォーマーに依存しない新アーキテクチャで既存モデルを凌駕
LFM各モデルのパフォーマンス
Liquid AIは、様々なベンチマークを通じてLFMの性能評価を実施した。特に、最小モデルであるLFM-1Bの結果が際立つ。1B(10億パラメータ)カテゴリーで最高スコアを達成し、この規模での新たな最高水準を確立した。 たとえば、MMMLUベンチマークにおいて、LFM-1Bは58.55%のスコアを記録。これはOpenELM(アップル)の25.65%、Llama3.2(メタ)の45.46%、Phi-1.5(マイクロソフト)の42.26%を大きく上回る数値だ。さらに、数学的推論能力を測るGSM8Kでは55.34%を記録し、30~40%代にとどまる競合モデルを大きく引き離している。
中規模モデルのLFM-3Bも、サイズに対して驚異的なパフォーマンスを示す。3Bパラメータのトランスフォーマー、ハイブリッド、RNNモデルの中で首位に立っただけでなく、前世代の7Bおよび13Bモデルをも上回った。さらに、18.4%小さいにもかかわらず、複数のベンチマークでPhi-3.5-miniと同等の性能を示している。
最大モデルのLFM-40Bは、モデルサイズと出力品質の新たなバランスを提供。使用時には12Bのパラメータが活性化され、そのパフォーマンスはより大きなモデルに匹敵する。 これらの結果は自社評価であるため、より客観的なサードパーティによる分析も必要となるが、Liquid AIはオープンサイエンスのアプローチを取ることを表明している。科学技術レポートを通じて発見や手法を公開し、研究成果から生み出されたデータやモデルをAIコミュニティに提供していく計画だ。ただし、これらのアーキテクチャの開発には多大な時間とリソースを投入してきたため、現時点ではモデルのオープンソース化は行わないとしている。これにより、競争の激しいAI業界において優位性を維持しつつ、進歩を継続できるとの判断のようだ。
文:細谷元(Livit)