マイクロソフトが生成AIリスクの取り組みに本腰 AzureAIでリスク軽減を目指す
文章要約やチャットボット活用におけるハルシネーション対策
また、ハルシネーションや不正確な内容を検出する「Groundedness Detection」も導入された。 Azure AI StudioとAzure OpenAI Serviceで提供されるこの機能は、微調整されたカスタム言語モデルを使用して、AIによって生成されたテキスト出力における不正確な内容を検出する。 活用例として、AIを医療情報や学術論文、法的文書といった、正確性が重要視される大量の情報の要約に使用するケース、AIチャットボットによるカスタマーサポートに使用し、顧客により正確な回答を行うケースなどが示されている。
より安全なAIアプリケーションの開発を支援
3つ目の機能「Safety evaluations」は、AIアプリのリスクと安全性をストレステストする自動評価機能だ。 生成AIの開発者を支援するために用意されたこの機能は、前述のプロンプトインジェクションの一種である「プリズンブレイク」の試みや暴力的、性的、自傷行為やヘイトを含むコンテンツの生成に対するアプリケーションの反応を評価し、評価結果や対策について提案をする。 これと、4つ目の機能であるMicrosoft Researchによって開発された大規模言語モデル(LLM)のテンプレートとフレームワークである「Safety system messages」はいずれも、安全で責任あるコンテンツを生成するAIの効率的な開発をサポートするサービスだ。
AIアプリのリアルタイムモニタリングも可能に
最後の5つ目の機能「Risk and safety monitoring」は、AIアプリが本番稼働しているときに、リアルタイムモニタリングを提供する機能だ。 このモニタリング機能は、AIへの入力と出力が、プロンプトインジェクションに対するシールドのような安全機能を作動させているかどうかリアルタイムでチェックできる。 また、ブロックされたユーザー入力/モデル出力の量と比率、重大度/カテゴリー別の内訳といった詳細なレポートを作成することが可能だ。 この機能によって、生成AIアプリの開発者は、問題のある生成リクエストの傾向を時系列で把握し、コンテンツフィルターの設定やコントロール、さらに安全性を高めるための設計の調整に反映できる。
米国における新たな連邦AI保護措置の導入も影響か
このような生成AIのリスクに対する取り組みに本腰を入れる動きが強まっているのは、米国で、安全性とセキュリティ、プライバシー保護、イノベーションの強化を目指す連邦政府機関向けの人工知能の新たな保護措置を発表されたことも背景にあるのかもしれない。 今年年末までに連邦機関によって採択される予定となっているこの措置は、アルゴリズムによる差別を軽減するためのAIのテストと監視、また透明性確保のためのAIの公的目録を作成することを義務付けている。 今年は、欧州議会でもAI規制法が可決されており、世界的に、AIの使用に関連したリスクに対して、より慎重な対応が求められるようになっていると言えるだろう。
文:大津陽子 /編集:岡徳之(Livit)