楽天、日本語に最適化したAIモデル「Rakuten AI 2.0」と「Rakuten AI 2.0 mini」を発表
楽天グループは12月18日、日本語に最適化した2つのAIモデル、大規模言語モデル(LLM)「Rakuten AI 2.0」と、小規模言語モデル(SLM)「Rakuten AI 2.0 mini」を発表した。 近年、AI技術の進化により、LLMはさまざまな分野で活用されている。それに伴い、高性能な日本語特化型LLMの需要が高まっており、プライバシー保護や低遅延などのニーズに対応する、軽量なSLMも求められているという。 Rakuten AI 2.0は、同社の高性能なLLMの基盤モデル「Rakuten AI 7B」を基に開発した。モデルが複数のサブモデル(エキスパート)に分割されているMoE(Mixture of Experts)アーキテクチャーを採用し、8つの70億パラメータを持つサブモデルで構成される。 入力トークンに対して最適な2つの「エキスパート」を選択・処理し、計算効率と性能を最適化できる。8倍規模の高密度モデルに匹敵する性能を、4分の1の計算量で実現し、消費電力を抑え、環境負荷を軽減できる。また高品質な日本語および英語のデータで学習し、多言語対応のAIアプリケーション開発に貢献できるとしている。なお従来モデルの「Rakuten AI 7B」と比較して、日本語および英語の処理能力が向上し、LM-Harnessによる評価では、8つのタスクにおいて平均日本語性能を62.93ポイントから72.29ポイントに向上させている。 Rakuten AI 2.0 miniは、15億パラメータのコンパクトなモデルで、AI運用におけるリアルタイム処理やコスト削減に貢献する。モバイル端末への導入が可能で、データをリモートサーバに送信することなく自社運用できるため、個人情報保護やセキュリティ強化に役立つという。 両モデルは、AIアプリケーションを開発する企業や技術者などの専門家を支援することを目指しており、2025年春をめどにオープンソースコミュニティに向けて公開する予定だ。