マイクロソフト「MInference」はオンプレでの推論スピードを10倍アップ、クラウドに依存しない生成AI利用を促進する技術開発が加速
今後想定されるユースケース
MInferenceのような手法が広く実用化されると、低コストで多様な長文処理タスクに対応できるようになり、企業におけるAI普及を後押しすることになるだろう。 冒頭でも触れたように、これまでのオープンソースモデルは、コンテキストウィンドウのサイズが8,000トークンと小さなものだったが、12万8,000トークンのMistral NeMoの登場により、今後、より大きなコンテキストウィンドウを持つオープンソースモデルの開発が加速する公算が高まっている。しかし、オンプレミスマシンの処理能力が低い場合、これらのモデルの能力を十二分に発揮することは難しい。ここにMInferenceのような手法を導入することで、限られたAIリソースでも、AIモデルのパフォーマンスを高めることが可能になるのだ。 そうなると、これまでのオープンソースモデルでは難しかった文書分析や要約タスクにおいて大きな進展が期待できる。大型コンテキストウィンドウモデルとMInferenceによる高速化により、たとえば、法律文書、学術論文、長編小説などの大規模テキストデータの分析や要約が格段に容易になる。複雑な契約書の自動レビューや、大量の研究論文からのトレンド分析などが、より迅速かつ低コストで実現できるかもしれない。 また高度な質問応答システムの構築も不可能でない。AIモデルに、特定トピックに関する膨大な情報を与えることで、チャットボットの回答精度を大きく改善することができる。医療分野での診断支援や、法律相談、複雑な技術的問い合わせへの対応など、専門知識を要する領域で特に有用になると考えられる。 このほか、数十万行に及ぶソースコードを一度に処理し、バグの検出や最適化の提案、さらには大規模なリファクタリングの支援などコーディング/ソフトウェア開発でも大きな躍進が期待できる。
文:細谷元(Livit)