AIが差別する? セクハラする? 人とAIとの共生のために知らなくてはいけない3種のリスク
大きな話題を集めるChatGPTをはじめ、世の中にどんどん広まっているAI(人工知能)。しかし、その利点とリスクについて、どこまで正しく理解できているだろうか。AIと人がより良い関係を築いていくため意識すべきことについて、AIのリスク管理プラットフォームを提供するロバストインテリジェンスの政策企画責任者、佐久間弘明さんに伺った。
"ワクワク"するサステナブルのヒントを教えてくれた人
佐久間 弘明さん 経済産業省でAIに関する制度整備・運用に携わった後、外資系コンサルティング会社で大手企業の経営戦略策定に従事。2023年2月からロバストインテリジェンスに入社し、日本市場における政策企画を統括している。
誰もが知るべき3種類のAIリスク
「AIはこれまで、先進的な企業が生産性向上のために導入するのが中心でした。いわば『閉じられた』技術だったのですが、最近は一般ユーザーにも『開かれた』ものになってきています」 こう語るのは、アメリカを本拠地としてAIのリスク管理事業を展開する、ロバストインテリジェンスの佐久間さんだ。AIが「開かれた」ものになったことを世の中に大きく印象づけた出来事は、やはり2022年11月のChatGPTのリリースだろう。 「プログラミング言語を使わずとも、チャット形式のやり取りの中でAIに高度な作業をこなしてもらえるのが、ChatGPTの画期的なところ。これは私の使用例なのですが、食事メニューを打ち込んで『理想の栄養摂取量と比較してください』と指示すれば、計算結果が出るだけでなく、『糖質が多いので気を付けてください』なんてアドバイスまでしてくれるんです」 ChatGPTなど、文章や画像などのコンテンツを自動でつくり出すのは、「生成AI」と呼ばれる技術。これを個人がビジネスシーンなどで活用していくためには、AIの得意・不得意を見極めることが大切だという。 「たとえばChatGPTは、詳細な事実についての回答は精度が低いのですが、文章校正やブレーンストーミングの相手はとてもうまい。このような特性を理解してAIと作業分担をしていくとともに、『プロンプトエンジニアリング』といわれる、指示や質問の設計方法を身に付けることで、より効果的に活用できるようになります」 佐久間さんはさらに、AIの便利な使い方を学ぶと同時に、リスクを理解していくことも必要だと話す。 「AIリスクは大きく3種類あります。まずは、事実と異なる回答をしてしまうなどの『機能・品質』のリスク。正常に作動したとしても、社会通念に反するアウトプットが生じるなど『倫理』のリスクもあります。また、AIが敵対的な攻撃にさらされる『セキュリティ』のリスクを考慮して、個人情報を学習させないといった注意も求められます」 AIが人にもたらすメリットを最大化するためには、しっかりとリスクを見据えなくてはいけない。私たちはAIが発展した今後の社会の姿をいかにイメージし、リスク対策を考えていくべきなのだろうか。 「AIという技術は、人の仕事をサポートすることで人手不足の解消や生産性向上に役立てられるだけでなく、医療や災害対策などで高度なタスクを担わせることにより、これまで人だけでは対応できなかった社会課題の解決にも貢献することができます。こうした技術が社会に大きな影響を与え、人々がAIのアウトプットに日々接する時代が訪れようとしているからこそ、AIリスクへの対策は、ユーザーとサービスの提供者側が足並みをそろえて進めていかなくてはいけません」