AIが差別する? セクハラする? 人とAIとの共生のために知らなくてはいけない3種のリスク
第三者視点の保証が、ユーザーの安心になる
佐久間さんが所属するロバストインテリジェンスでは、AIモデルの健全性・堅牢性を高めるソリューションを企業などに提供することで、AIと人の共生という社会課題にアプローチしている。 「AIはつくった時点で性能が決まるわけではなく、新しいデータを学びながら高度な判断をしていくものです。そこで当社は、企業がAIモデルを作成する段階だけではなく、運用していく過程でも、継続的にリスク検証を行うサービスを提供しています。具体的には、膨大な数のテスト入力を行って、偏りのある出力がなされた際には補正をかけていくという作業を、自社のソフトウェアによって行っていくわけです。公平性が求められる人事関係の企業や、自動化の余地が大きい金融関係の企業などから引き合いをいただいていますね」 同社が設立したのは2019年のこと。当時、ハーバード大学でAIの研究をしていた大柴行人さんと、その指導員だったヤロン・シンガーさんの2人が共同代表となって立ち上げると、わずかな期間で約60億円の資金を調達。アメリカの大手企業や国防総省などの顧客を次々と獲得し、2021年には日本市場への参入を達成した。これほどの急成長を実現したのは、同社の取り組む先進的なミッションが広く共感を得たためだ。 「私たちが目指すのは、誰もがAIに信頼を置ける社会です。その実現のためには、AIによるサービスの信頼性を第三者的な視点から保証することで、ユーザーに安心感を持ってもらうという事業モデルが重要になると考えています」 佐久間さんは経済産業省やコンサルティング会社での勤務を経て、今年ロバストインテリジェンスに入社。同社は、いわゆるテック企業と呼ばれる会社だが、佐久間さん自身はAIと社会との関係性という「文系的な関心」が決め手となって入社したという。 「生成AIによるバイアスの強化などをイメージしていただければ分かりやすいのですが、AIについて考えることと、人権などについて考えることは結びついているんです。AIのサービスを提供するのも、使うのも人。私たちの仕事は、人々がAIと向き合うための環境を整えることでもあると思っています」 大きな可能性に満ちたAIという技術。私たちはその恩恵をただ享受するだけでなく、リスクを含めて積極的にあり方を考えていかなければいけない。それが、より良い世の中をつくるための一歩にもつながっていくはずだ。
取材:三菱電機イベントスクエア METoA Ginza "from VOICE"