IBM、最新AIモデル「Granite 3.1」を発表--ビジネス利用に最適化
IBMが数カ月ごとに新しいオープンソースの大規模言語モデル(LLM)「Granite」をリリースし、強烈な追い上げを見せている。「Granite 3.1」は、「Granite 3.0」の成功を踏まえて開発された、最新の生成AIモデルだ。新モデルでは複数の機能が強化され、パフォーマンスがビジネスにおける用途に最適化されている。 Granite 3.1モデルのファミリーは、旧モデルから大幅に増加した、12万8000トークンに対応するコンテキストウィンドウを擁する。このウィンドウ拡張により、Granite 3.1シリーズのモデルは従来と比べてはるかに大量のテキスト(英単語で約8万5000語相当)の処理と理解が可能になり、より包括的な分析や生成タスクを実行できる。ちなみに、人工知能(AI)革命の火付け役となったOpenAIの「ChatGPT-3」が処理できるトークンは、わずか2000余りだった。 ライバルを上回るパフォーマンス IBMは、新たに発表した「Granite 3.1 8B Instruct」モデルがHuggingFaceの「OpenLLM Leaderboard」ベンチマークでGoogleの「Gemma 2」やMetaの「Llama 3.1」、「Qwen 2.5」といった競合モデルのパフォーマンスを上回っていると主張している。 Granite 3.1ファミリーには、高密度モデルと「Mixture of Experts」(MoE)モデルが含まれている。IBMによると、「Granite 3.1 2B」および「Granite 3.1 8B」モデルは、12兆を超えるデータトークンでトレーニングされた、テキストのみ対応の高密度LLMだという。この2つの高密度モデルは、ツールベースの使用事例をサポートするとともに、検索拡張生成(RAG)、コード生成の効率化、翻訳、バグの修正向けに設計されている。 一方、MoEモデルは、10兆トークン以上のデータでトレーニングされており、IBMによると、低レイテンシーのオンデバイスアプリケーションに導入するのに理想的だという。 Granite 3.1は、外国語を扱う能力も向上している。英語のほか、ドイツ語、スペイン語、フランス語、日本語、ポルトガル語、アラビア語、チェコ語、イタリア語、韓国語、オランダ語、中国語(簡体字)など12言語に対応している。つまり、顧客が国際的な仕事を抱えている場合、IBMには利用可能なLLMがあるということだ。 これまでと同様に、新版のGraniteもオープンソースライセンス「Apache License 2.0」の下で提供される。IBMはまた、トレーニング用データセットの公開と、モデルの開発およびパフォーマンスに関する総合的な資料の提供により、情報公開についても真剣に取り組む姿勢を見せている。 AIについて知的財産がらみの問題を懸念しているユーザー向けに、IBMは、自社のモデル利用に関連する第三者からの知的財産権の主張に対して、上限無制限の補償を提供する。読者の中にはまだこうした潜在的な法的問題について懸念していない人もいるかもしれないが、今後は必ず、そうした懸念が持ち上がるはずだ。 この記事は海外Ziff Davis発の記事を朝日インタラクティブが日本向けに編集したものです。