RAG(検索拡張生成)とは何かをわかりやすく解説、LLMとどう併用?安野氏の活用例とは
近年、生成AI分野で注目を集めている新技術「RAG(検索拡張生成:ラグ)」。従来のAIのように学習データだけに頼らず、外部情報を組み合わせて回答を生成できるため、ビジネスでの活用が期待されている。RAGの仕組みやメリット、ビジネスにおける活用例について、起業家・AIエンジニアの安野 貴博氏の解説と合わせて紹介する。 【詳細な図や写真】AI利用にあたり社内情報や外部の最新情報を活用したいというニーズが高まっている(Photo/Shutterstock.com)
RAGとは何か
RAG(読み方:ラグ)とは「Retrieval Augmented Generation」の略称で、自社だけに蓄積された社内情報や、外部の最新情報を、ChatGPTなどのLLM(大規模言語モデル)に取り込んで、回答させる技術のこと。 通常、LLMには「ナレッジのカットオフ」と呼ばれる問題がある。これは、そのLLMが特定の日時時点までの情報しか知らない(学習していない)、という問題のこと。知らないことは答えられなかったり、ハルシネーション(嘘)の答えを導き出すリスクにつながる。それをRAGは補完してくる。 たとえば、企業が新製品を出したとき、その新製品の情報をChatGPTが知らない、といったことが起こりうる。そのとき、RAGを使うことで、「ChatGPTに自社の新製品に関する情報を組み込ませて、その情報を元に質問に答えさせるといった使い方が可能です」(安野氏)。 昨今、RAG技術の市場規模は拡大している。Grand View Researchの調査によれば、世界の検索拡張生成(RAG)市場規模は、2023年時点で約1,600億円(10億4,270万米ドル)に達すると推定されている。2024年から2030年にかけては年平均成長率44.7%で成長すると予測されており、今後ビジネスにおいても、RAGの活用が増えていくだろう。 RAGについて、安野氏が動画でも詳しく解説しています ■「検索拡張生成」とは RAGは、質問に対する回答を生成する際、外部のデータベースから関連性の高い情報を取得し、それを踏まえた上で回答を生成できる。 また、LLMの知識を補完し、AIに新たな学習をさせずに回答精度を維持しながら、活用範囲を広げられる。取得可能な情報ソースの範囲も豊富で、インターネット上の最新情報や企業のビジネス情報、社内の機密文書まであり、LLMの学習データだけではカバーできない範囲にも対応できるのが特徴だ。 ■LLM(大規模言語モデル)との関係 LLMとは、膨大なデータと深層学習技術を用いて構築された言語モデルだ。一方、RAGは、LLMを始めとする生成AIの弱点を補い、有益に活用するための手法である。 具体的には、RAGではLLMが回答を生成する前に、最新の情報や専門分野のデータベースなどの外部情報を付与し、検索可能な状態にするプロセスを追加する。これにより、LLMの情報の不正確さなどの課題を克服できる。 さらに、LLMにRAGを組み合わせることで、パーソナライズされた回答生成も可能となる。一般的なLLMでは、公開されている既存の情報しか提供できないが、RAGを用いたLLMでは社内情報やインターネット上にはない学習させたタスクも提供できるのだ。 安野氏によると「ChatGPTに限らず、通常LLMのプロンプトに入力できる文字数は限られているので、たとえば本一冊分などは入り切りません。しかしRAGの場合は、質問に応じて、本のこのページの辺りの記述を用いれば回答できるかもしれないと判断して、そこから関連する情報だけをプロンプトに含めてAIに提供することも可能なのです」(安野氏) ■RAGが必要とされている理由 RAGが求められる理由は、企業が生成AIを利用していく中で、自社に蓄積された社内情報や外部の最新情報を活用したいというニーズが高まっているためだ。 生成AIは、学習済みのデータをもとに質問に対して、統計的に確率の高い回答を生成するが、新しい情報や企業独自の情報などは対応できない点が課題だ。しかし、RAG(検索拡張生成)を導入すると、生成AIが社内の情報なども参照しながら回答を提供できる。たとえば、直近の研究や市場トレンド、自社のノウハウを取り入れた回答ができ、意思決定がスピーディーで正確になる。 従来の生成AIの弱点を補いながら、ニーズが高まっている情報を回答できるため必要とされている。