Amazon がジェネレーティブAIアプリの拡張と精度向上のためのツールの追加を発表
AmazonがジェネレーティブAIアプリケーションの作成を簡素化し、導入による利便性を高め、さらに精度を向上させるためのツールを増やそうとしている。 アマゾンウェブサービス(Amazon Web Services、以下AWS)は7月10日に開催された「AWSサミット・ニューヨーク(AWS Summit New York)」において、ジェネレーティブAIで企業向けのアプリケーションを作成する新サービスを発表した。 大規模言語モデル(LLM)の精度改善の取り組みについても紹介されたが、多くの企業が「ハルシネーション」を警戒するなかで各種LLMの精度改善は喫緊の課題と言える。
Amazonが追加した新機能
そこで追加された新たな機能が「コンテクストグラウンディングチェック」だ。これはソースデータをリアルタイムで相互に照らし合わせ、AIが生成した応答をチェックする機能である。業種やデータの種類によって応答精度に対する企業の許容範囲も異なる可能性があるため、グラウンディングチェックではその企業の許容レベルに基づいてAIの応答を制御する「関連性(レリバンス)」の測定も実施するという。 AWSが発表したもうひとつの新機能が「Guardrails API」で、ユーザーのプロンプト入力とAIモデルの応答についてやAmazon Bedrock上の各種LLMおよび企業固有のLLMを評価する。また企業が定めるポリシーに基づいてコンテンツを特定し、機微情報の編集または削除、有害なコンテンツのフィルタリング、望ましくないトピックや不適切なコンテンツのブロックなどもサポートするという。 「APIリクエストはそのリクエストやインプットに対して最適のアウトプットが得られるよう、これまでよりもずっと具体的に調整可能になった」とAWSでAI担当責任者を務めるディア・ウィン氏は米DIGIDAYに語った。「ここで重要なのは、追加の保護レイヤーまたはもう一段高いレベルの安全性を顧客に提供できるようにすることだ。そしてこのAPIはAmazon Bedrock上のLLMだけでなく、どのLLMにも対応する」。 Amazonが実施したテストによると、AIモデルの応答に含まれるハルシネーションの最大75%がコンテクストグラウンディングチェックによって検出・除去されたという。さらに、Guardrails APIと併用することでブロックできるコンテンツが最大で85%以上増加した。AWSのAIプロダクト担当バイスプレジデントを務めるマット・ウッド氏はAWSサミット・ニューヨークに登壇し、公共のインターネット上で訓練されたAIモデルは、企業が使うデータセットや文書フォーマットの種類よりも「ずっと広範で一般的な」データセットを使用していると指摘した。 「その情報はたいてい、多くの企業が日常業務で扱う情報の深さに比べると相当に浅いものだ。このような世界モデルを深く掘り下げていくと、まるでスイスチーズにようになることがある。情報の密度が高い部分がある一方で、希薄な部分が存在する。そして情報密度が高く、モデルにコンテクストが伴うところにおいてこのモデルは実にうまく機能する」。 この発表はAWSサミット・ニューヨークで公開された多くの機能のうちの2つにすぎない。AmazonはジェネレーティブAIプラットフォームにからむ数多くの機能を公開した。たとえば法人顧客向けの新機能である「AWS App Studio」では、テキストプロンプトから業務用AIアプリを作成できる。企業が独自のAIアプリを構築する機能「Amazon Q Apps」の拡張も発表された。