ChatGPTの記憶力アップなど、OpenAIの最新の取り組み エンタープライズ機能の拡張とメモリ機能のリリース
OpenAIがエンタープライズ機能を拡張、その詳細
企業における生成AIの活用をさらに進めるには、AIモデルの精度向上に加え、セキュリティ、プライバシー、コスト管理などの要素も必須だ。当初から法人をターゲットとしてきたAnthropicやCohereが存在感を示す中、OpenAIも企業向けの取り組みを加速し、シェア拡大を狙う。 OpenAIは2024年4月、GPT-4 Turboなどの大規模言語モデル(LLM)を活用したエンタープライズ向け機能の拡張を発表した。具体的には、セキュリティや管理機能の強化、コスト管理の効率化などを実現する新しい機能となる。API経由で同社のLLMを利用する企業をさらに増やす計画だ。 セキュリティ面では、マイクロソフトのAzureクラウドサービスとOpenAI間の直接通信を可能にする「Private Link」を導入。これにより、APIを介して送信される顧客データやクエリのインターネットへの露出を最小限に抑えることができるとしている。さらに、多要素認証(MFA)をネイティブサポートし、アクセス制御を強化した。同社はすでに、SOC 2 Type II認証、シングルサインオン(SSO)、AES-256を使用した保存データの暗号化などの対策を導入しており、セキュリティ/プライバシー面の懸念払拭に注力していることがうかがえる。 管理面においては、「Projects」と呼ばれる新機能により、プロジェクトレベルでの役割やAPIキーの管理が可能になった。企業は、権限の範囲設定やモデルの選択、使用量ベースの制限設定などを行えるようになったという。これにより、企業内の個別プロジェクトごとに、リソースやメンバーを分離し、使用状況のレポーティングやアクセス、セキュリティ、コストに関するコントロールを行うことができるようになる。 OpenAIの主要なエンタープライズ向けサービスの1つである「Assistants API」も大幅に強化された。まずファイル検索機能が拡張され、1アシスタントあたり最大1万ファイルまで処理可能になった。これは従来の20ファイル制限から500倍の増加だ。マルチスレッド検索により、検索スピードも大幅に高速化したという。またAPIに新しいベクトルストア機能が導入されRAG(Retrieval Augmented Generation)の仕組みを簡単に構築できるようになった。この機能を利用することで、ファイルをベクトルストアに追加し、自動的に解析、分割、埋め込みを行い、ファイル検索の準備を整えることができる。 コスト管理においては、一定のトークン使用量を維持している顧客向けの割引や50%のコストで利用できるバッチAPIを利用した非同期ワークロードの新機能を追加した。バッチAPIは、即座の応答が必要のなく、大量のデータを要するタスクに最適化されており、例えば、月次の売上レポートの生成や日時の顧客データのサマリ生成などのユースケースで活用が想定されている。GPT-4やGPT-4 Turboで毎分のトークン(TPM)使用量を一定レベルで維持している顧客は、使用量に応じて10~50%の割引を受けられるという。
【関連記事】
- OpenAI取締役のAIスタートアップSierraが目指すチャットボットのパーソナライゼーション
- OpenAIサム・アルトマンCEOのAIチップ開発で7兆ドル調達の野望、GPU関連スタートアップの台頭など、激変するAIチップ市場の現状
- アップルVision Pro、1,000個以上のアプリが登場。OpenAIのCEOは絶賛もメタ・ザッカーバーグCEOは厳しい評価、リリース後の賛否さまざまな声
- OpenAIのGPT-4かグーグルのGeminiか? 高い計算・数学能力を持つ生成AIが続々登場
- OpenAI、Anthropicに並ぶ主要生成AI企業Cohere、法人特化の差別化戦略で企業における生成AI活用を促進