2025年は特化型AIモデルが主流に--DeepL創業者ら
2025年に向けたIT企業のトップメッセージを紹介する。 DeepL 創業者・最高経営責任者(CEO) ヤロスワフ “ヤレック”・クテロフスキー氏 未来のAIモデル=オーダーメイドのカスタムソリューション 2023年から2024年にかけて、汎用型AIモデルに対する期待がその価値を上回る勢いで高まりました。しかしながら、現実としては、汎用型AIがもたらすインパクトの現れ方ははるかに緩やかだったといえます。 2025年には、各業界の特定の課題を解決し、企業に具体的な投資収益をもたらす、特化型の、カスタマイズされたAIソリューションが主流となるでしょう。こうした特化型AIモデルは現在、汎用型AIモデルよりもはるかに成熟しており、また、登場から時間が経過しているため、技術を洗練させ、現実世界のニーズにより良く応えることが可能です。 同時に、特化型AIモデルが一層堅固になり、そのアーキテクチャーの一部として汎用的な側面を含むようになることも予想されます。将来的に、汎用型AIモデルと特化型AIモデルの境界線は曖昧になり、特化型の、業界固有のカスタマイズを加えた一層ハイブリッドなモデルが台頭すると予想されます。 最高技術責任者(CTO) セバスチャン・エンダーライン氏 文脈のより深い理解が音声翻訳の進歩を促進する 音声AI翻訳の次の大きな進歩は、より深い文脈理解によってもたらされると予想されます。現在のシステムは、話し言葉を正確に認識することに終始しています。しかし、真の課題とチャンスは推論にあります。人間は、口調や音量といった微妙な手がかりから、言語化されていないことを理解することに長けています。 そして、2025年から今後数年間にかけて、推論が音声AIの大きな飛躍を遂げる分野になるでしょう。文脈を解釈し推論する能力を拡大することで、音声技術はさらにシームレスで直感的なインタラクションの実現を可能にします。 リサーチ担当バイスプレジデント ステファン・メスケン氏 2025年、ユーザーはAIをより使いこなし、コラボレーションを強化する 現在の関心は、モデルのサイズや技術的進歩の未来に集まっていますが、2025年においては、既存のAI能力の可能性を最大限に引き出し、人間とAIのコラボレーションを強化することが注目されるでしょう。現在、AIとのやりとりは比較的静的なプロセスとなっていますが、2025年にははるかにダイナミックなものになると考えられます。 AIはユーザーをよりよく理解するだけでなく、積極的な提案や有意義なコラボレーションを行い、ユーザーの個々のニーズに適応するようになるでしょう。こうした高度でパーソナライズされた機能の多くは既に存在していますが、その提供は研究者や開発者に対してのみに限られています。このギャップを埋め、顧客体験を向上させることが、2025年に最もインパクトのある進歩の一つとなります。AIと一緒に仕事をすることは、賢い同僚と一緒に仕事をするような感覚を生み出すと予想されます。 機械学習と合成データがスケーリングの課題解決を支援する AIのスケーリング法則の先に歩みを進めるためには、新しいアイデアが必要です。これには主に3つの方法が考えられます。 1つ目は、モデルアーキテクチャーの改善ですが、これについて飛躍的前進は期待できません。改善が試みられており、新年にはさらなる進歩が期待されますが、トランスフォーマーのようなアーキテクチャーは依然として力を持っています。 2つ目は、最適化の改善です。エネルギーとデータの両面においてAIの機械学習を効率化することは可能です。現在のアプローチはまだ非常に基礎的で、多くのエネルギーを消費しています。興味深い比較として、人間の脳は約20Wのエネルギーを消費しており、20歳になるまでの総エネルギー消費量は3.5MWhになります。これは、人間の脳が、世界で最も人気のあるAIモデルを機械学習させる時に比べ、1万7000分の1以下の消費エネルギーで学習できることを意味します。 3つ目として、最適化アルゴリズムの改善により大幅な効率化が期待できますが、この分野の研究はまだ進んでいません。この研究分野は2025年においても非常に重要なものとなりますが、飛躍的前進はまだ先のことになると考えられます。 短期的には、AIのスケーリング法則においてより多くのデータを作成することが最も有望なアプローチとなります。合成データを使用する素朴なアプローチはAIの品質を損なう可能性がありますが、慎重に実行すれば、豊富なフィードバックを巧みに活用し、幅広いタスクでAIモデルのパフォーマンスを高めることが可能です。 エッジコンピューティングは(まだ)言語AIの未来ではない 私は、言語AI市場がデータセンターのインフラストラクチャーとともに成長すると予想しています。特定のアプリケーション、特にネットワーク遅延の影響を受けやすいアプリケーションについて、ロボット工学分野などでのエッジアクセラレーションは既に成功してます。 しかし、エッジコンピューティングは、データセンター全体の巨大なパワーではなく、限られたローカルリソースに依存するため、コンピューティングパワーという点においてデータセンターに根本的に遅れを取っています。従って、言語AIの文脈では、エッジコンピューティングへの移行はいずれ実現すると考えられるものの、有意義な言語AIモデルは、現在および近い将来において、スーパーコンピューターやデータセンターに依存し続けることが予想されます。 ここにおいても私は、スケーリングの法則が続くと予想しています。すなわち、言語AIのためのさらに大きく、さらに強力なモデルが必要であり、そのためには現在データセンターでしか実現できないようなAIアクセラレーターハードウェアが必要なのです。 製品担当バイスプレジデント クリストファー・オズボーン氏 テキスト翻訳はよりインタラクティブで文脈を意識したものになる テキスト翻訳においては、精度と品質だけでなく、カスタマイズ性とインタラクティブ性が重視されることになるでしょう。テキスト翻訳における真のチャンスは、これらのモデルがユーザーが誰であるか、何をしているかを理解し、ユーザーと共に働くことができるようにすることです。 これにより、ユーザーは自分自身の明確な目標や好みに合わせた翻訳結果をを得ることができるようになります。また、このことは翻訳に対する意識を変化させ、これまで以上にダイナミックで、直感的で、カスタマイズされた体験が可能になるでしょう。