楽天、日本語処理に特化したAIモデル「Rakuten AI 2.0」
楽天は18日、日本語処理に特化した新たな大規模言語モデル「Rakuten AI 2.0」と、同社初となる小規模言語モデル「Rakuten AI 2.0 mini」を発表した。両モデルは2025年春を目途にオープンソースとして公開される予定で、AIアプリケーションを開発する企業や技術者の支援を目指している。 Rakuten AI 2.0は、Mixture of Experts(MoE)アーキテクチャを採用。このモデルは8つの70億パラメータで構成される「エキスパート」と呼ばれるサブモデルを持ち、入力されたトークンに対して最適な2つのエキスパートが選択され処理を行なう。これにより、従来の同規模モデルと比較し、計算効率を大幅に向上させた。具体的には、8倍規模の高密度モデルと同等の性能を発揮しながら、消費計算量を約4分の1に抑制することが可能という。 性能面では、LM-Harnessによる評価において、日本語タスクの平均スコアが72.29を記録。これは前モデルの「Rakuten AI 7B」の62.93から約15%の向上を達成しており、国内の主要な言語モデルと比較しても高い競争力を持つとする。東京科学大学(旧東京工業大学)の「Swallow」シリーズ、SB Intuitionsの「Sarashina2-70B」、Preferred Networksの「PLaMo」といった国内競合モデルと比較しても、日本語性能で優位性を示している。 同社初の小規模モデルとなるRakuten AI 2.0 miniは、15億パラメータという軽量な設計ながら、楽天独自の多段階データフィルタリングとアノテーションプロセスを採用。これにより高精度なテキスト生成を実現している。モバイル端末への搭載も可能で、プライバシー保護や低遅延処理が求められる用途に適しているという。 楽天は自社でLLMモデルの開発を継続することで知見やノウハウを蓄積し、「楽天エコシステム」の拡大に取り組むとしている。
PC Watch,鈴木 悠斗