企業が信頼できるAIを提供しないときのリスク:低品質データセットが引き起こす重大な問題
北欧は「信頼」という言葉を好み、市民は政治家・警察・メディアなどの権力機関にも世界的に高い信頼を抱く諸国だ。今、その北欧諸国では、信頼できるパートナーとして、いかにAIと協働できるかが模索されている。
オスロ・イノベーション・ウィークでは、「AIをあなたは信頼できるか?」というイベントが開催された。
主催したのは、第三者認証機関、オイル&ガスセクターにおけるリスクマネジメント、船級協会、風力/電力送配電分野のエキスパートを主とするサービスプロバイダーである国際機関DNVだ。
監査、コンサルティング、税務、職務サービスを提供するKPMGの報告書によると、2023年にKPMGが17カ国を対象に実施したグローバル調査では、61%がAIを信頼していないことが分かった。
それでもDNVは、「AIは信頼されながら安全に拡大できる」と主張する。
「サンプリング・バイアス」や「ラベル・バイアス」といった課題は、AIモデルの不正確性やパフォーマンスの低下につながる。そのためにも、今後必要とされるのは、偏りのない高品質のデータセットを提供できるスタートアップや企業だ。
今後需要が高まり、新しい雇用を生むと指摘されたのはこのような企業だ。
新しく生まれるAIの仕事
- 品質が検証され、信頼性の高いデータで問題を解決するテクノロジーやスタートアップ企業
- 正確で偏りのないAIモデルの構築をサポートするイノベーション
- AIモデルが正確に構築および展開され、AIシステムが意図した通りに機能することを保証するための管理と監視を可能にするソリューション
AIを称賛するだけで、問題から目をそらしてはいけない
AI分野のトップ女性研究者の一人として認められているToju Dukeさんは、Googleで「責任あるAI」プログラムマネージャーとして勤務した経歴を持ち、「Diverse AI」の創設者だ。
責任あるAIの構築における思想のリーダーとして、「AIが定着するのは避けられない。私たちがそれを望むかどうかに関わらず、私たちはただそれを甘んじて受け入れ、その技術に適応していくしかない」、だからこそAIの問題から目をそらしてはいけないと彼女は語った。
AIは「白人男性」集団の考え方を象徴している
「今日、AIが直面する問題のひとつに、偏見、ステレオタイプ、表現、または害、差別があります。AIシステムを構築するために使用されるデータセットは、多くの場合、白人男性を代表するものにすぎません」
「責任あるAI分野では、新たな疑問とフラストレーションの種が生まれています。多くのAIアシスタントは女性にちなんで名付けられていることです。なぜAIアシスタントに女性の名を付け続けるのでしょうか?」
AI開発において考え方の多様性が増せば、より安全で信頼性の高いAIシステムを構築できるようになる可能性が高くなるとToju Dukeさんは話した。
AIは社会的不公平の鏡
AIには社会的不公平が数多く存在し、私たちはそれを見て見ぬふりはできない。
AIは多くの固定観念を増幅し、多くの偏ったアウトプットを出力する。AIを稼働させるには膨大な資金とエネルギーが必要であり、大量の水も消費する。
アーティストや俳優たちは著作権の問題を訴えている。すでに間違えて逮捕された人、自殺を図った人、面接で採用されなかった女性たち、ゴリラと認識された黒人の顔写真といった問題は起きている。
人命が失われる可能性もある。風評リスクや訴訟の可能性もある。人々の生活を台無しにする可能性もある。大規模言語モデルによる不公平な出力の結果、攻撃・差別されるのはマイノリティだ。
欠落している心理的安全性
Googleのように「ゴリラ」というラベルを削除するだけでは根本的な問題は全く解決されないとToju Dukeさんは批判した。
「データセットに十分な量の訓練データが不足しています。世界中の誰もが反映されていなければ意味がありません。その製品を拡大しようとしている人々を代表していないのであれば、ビジネスに役立ちません。製品に対する信頼を失い、市場を失うことになるでしょう」
なぜそうなったのか、企業は説明責任を果たせるか?
誰だって、社会的な偏見を助長するようなものではなく、安全で信頼できるAIシステムを構築したいはずだ。そのために必要なのは「説明可能性」だとToju Dukeさんは考える。
「AIは大きなブラックボックスです。AIがなぜそのような結論を出したのか理解できないことは、社会や業界、研究分野における大きな問題です。モデル内の文書、データセット内の文書、それらがどのように構築されたかについての追加情報を提供することは、AIの透明性と拡張性を確保するための一つの方法です」
AIの「善行を成し遂げる可能性」
Toju DukeさんはAIに否定的なのではない。むしろ健康や飢餓、危機対応、教育などの課題を解決する「善行を成し遂げる可能性」に希望を抱いている。
そのためにも、正しいAIフレームワークを開発し、安全に展開する方法を確立することが必要なのだ。「そうすることで、AIシステムが人々から信頼され、人々がAIを楽しみながら学んでいくことができる」と彼女は考える。
執筆後記
日本でも企業がAIを使ってコンテンツを発信している。どうしてAIを使用する必要があったのか、AI画像がどうしてそうなったのか、どのようなデータセットを使用したのか。人々からSNSで問われたとき、堂々と背景を透明性をもって説明できるだろうか?堂々と、データセットを開示できるだろうか?
AI企業の社員が「男性ばかり」で、彼らのAIが出力するものは「正確で偏りがない」と、どう説明できるだろうか?
そもそも、「説明責任があるのだ」という自覚は企業にどれほどあるだろうか?
現代の差別や偏見がこれ以上AIによって再構築・増大されないようにするためにも、日本企業も責任あるAIについて真剣に向き合う必要があるだろう。