Anthropic、AI開発/実装プロセスを短縮する取り組みを加速、現在の課題と新取り組みへの期待
AI導入の効率性を高めるアプローチ
生成AIアプリケーション開発における課題を克服し、導入までの時間を短縮する方法として、Hugging Faceの活用やAnthropicとCaylentの提携など、新たな取り組みが注目を集めている。 まず、Hugging Faceの活用による効率化について見ていきたい。Hugging Faceを活用することで、LLMopsのプロセスを大幅に効率化することが可能だ。たとえば、モデル選定とトレーニングの段階では、Hugging Face Hubから事前学習済みのモデル(GPTやLlamaなど)を簡単に選定できる。モデルをゼロから開発する必要がなくなり、時間やコストの大幅短縮が可能だ。最近では、ゼロスクラッチのLLM開発を諦め、これらのサードパーティモデルを活用し、カスタマイズやサービスの強化に乗り出すAI企業も増えている。 ファインチューニングの効率化においても、Hugging FaceのTrainerクラスを使用することで、複雑なトレーニングループを実装する必要がなくなり、短時間でモデルのトレーニングが可能となる。また、Hugging Face Hubには多くのデータセットが公開されているため、トレーニングデータの準備にかかる労力も軽減できる。 モデル最適化の面では、Hugging FaceのTransformersライブラリが、モデルの量子化や最適なパフォーマンスを発揮するための設定を容易に調整できるツールを提供している。さらに、Optimumライブラリを利用することで、モデルのハードウェア最適化(Intel OpenVINOやNVIDIA TensorRTの統合など)が容易になり、推論コストを削減することが可能となる。 一方、AnthropicとCaylentの戦略的提携も、AI導入時間の短縮に大きな期待が寄せられている。VentureBeatの報道によると、この提携は業界標準と比較してAI実装期間を半分近くに短縮することを可能にするという。 この提携により、CaylentはLLMOps Strategy Catalystプラットフォームを立ち上げた。このプラットフォームは、新しい言語モデルのテスト、統合、ベンチマークを効率化するもの。これにより、企業はAnthropicの最新モデルを迅速に評価し、既存システムに混乱をきたすことなく統合できるようになる。 実際の成果も報告されており、たとえばBrainBox AIはAIモデルの精度を98%維持しつつ、応答時間を1分から15秒に短縮。また、Venminderは65日分の契約処理の遅れを1週間以内に解消したという。 これらの取り組みは、特に社内でAI機能を構築・維持するリソースが不足している中堅企業にとって有益となる可能性がある。ただし、規制順守や倫理的配慮も重要な課題として認識されており、両社はこれらの点にも注意を払っているという。 Hugging Faceも買収などを通じて、プラットフォームの機能を拡張しており、AI導入にかかるコストや複雑性の問題は少しずつ緩和しつつある状況だ。
文:細谷元(Livit)