AIの安全性を確保する手段、その最新議論
さて、ここで使用したデータを人間が理解すると、2つの結論へと導かれる。1つ目は「男性が女性よりも能力が高い」、そして2つ目は「男性の採用が女性よりも多かったため、データが捻じ曲げられた」というもの。しかしながら、AIには2つ目の結論を推察する知能が無いため、1つ目の結論で性差別をしてしまったのだ。 このように「データ」と人間のように理解するであろうと思われたAIの「能力」とのギャップが、このような結果、ミスを生み出したのだ。
訓練データの品質
データのほとんどは、社会的にも歴史的にもバイアスがかかっているとされている。人種、階級、性別に関する偏見は、データの奥深くに刷り込まれているだけでなく、データの管理が非常にずさんなことがほとんどなのも一因。多くの組織が、自社で所有しているデータの品質に無頓着で、誰もそれを整理整頓しようとしていないことも、ずさんなデータの要因だ。 「ゴミを入れればゴミが出てくる」とは、コンピューター業界で言い古されてきた言葉であるが、いま改めてAIの訓練データに注目が集まり、この言葉の意味を実感することになっているのが現実だ。 安全で正確、倫理的なAIの作成には、検証可能性と透明性がカギとなる。同時に、エンドユーザーはそのAIが適切なデータで訓練されていることを知る権利がある。そこで、ゼロ知識暗号を利用しデータが改ざんされていないことを証明することで、そのAIモデルが最初から正確で、改ざん防止のデータセットで訓練されていることを保証できる。 今後AIを利用する側も、AIを使ったサービスを提供する側も、現時点でどのような検証方法があり、AIの利用、モデルの変更、オリジナルの訓練データのバイアスを検知できる能力を認識している必要がある。さらに、こうしたツールを構築するプラットフォームには、強力なAIモデルで危険な問題を引き起こし得る、不満のある従業員や産業・軍事スパイ、または単なるヒューマンエラーから保護する役割がある。 例えば、会社に不満を持った従業員が悪意のある改ざんをして企業に損害を与えたり、敵のスパイがAIを操作・改ざんして戦闘機を操ったり、戦車を動かしたり、ミサイルを発射したりできるようになってしまう可能性を排除しなければならない、ということだ。
AIと共に進化し続けなければならない安全検証
もちろん、検証がすべてのAI関連の問題を解決してくれるわけではないものの、今後あらゆる分野での活用が進むにつれ、AIモデルが意図したとおりに機能し、予期せぬ展開や改ざんを即座に検知する能力を有することを確実にすることが、永遠の課題となってくるであろう。安全性を脅かす活動を始める犯罪者もこれから増えてくることは確実だ。 高品質のデータも、放置すれば腐り始め、他のデータも汚染し大量のゴミデータになり得る。使えるデータと、ゴミデータを振り分けるのは未だ人智が頼りなのも事実だ。これまでは言わば放置されてきたデータの品質と管理が、今後AIが発展していく中で重要なカギとなりそうだ。
文:伊勢本ゆかり/編集:岡徳之(Livit)