【「水」枯渇の危機】AI開発で深刻化する水不足、干ばつに苦しむ地域ではデータセンター建設に対する反対運動も
2024年10月、ノーベル物理学賞に続き、化学賞でも人工知能(AI)関連分野の受賞が決まりました。いまや生成AIの登場は社会に大きな変化をもたらし、私たちはその利便性を享受しています。しかしその一方で、「学習型のチャットボットが差別的発言を繰り返す」「採用人事で男性に優位な判定を下す」「著作物を無断で学習データとして読み込む」「偽情報の生成・拡散が簡単に行われる」「膨大なエネルギー消費による環境破壊」など、生成AI社会に潜む倫理的な課題は後を絶ちません。 私たちは生成AI技術を通して、知らず知らずのうちに大規模な搾取に加担してしまっているのでしょうか。また、これからの社会で求められる倫理とはどのようなものなのでしょうか。本コラムでは生成AIが抱える問題点に触れながら、これからの社会に必要な「倫理的創造性」について迫ります。 *本記事は青山学院大学准教授の河島茂生氏の著書『生成AI社会 無秩序な創造性から倫理的創造性へ』(ウェッジ)の一部を抜粋・編集したものです。 連載一覧はこちらから 情報倫理のなかでも、2010年代以降はAIの高度化と普及の勢いがすさまじく、AI倫理が強く求められるようになってきました。 AI倫理とは、一言でいうとAIが普及した社会の秩序を考えていくということです。どのようにしたらよい社会、よいビジネス、よい暮らしにつながるのか、そうしたことをともに追求するプロセスともいえます。 これまでのコンピュータ・プログラミングが演繹的にルールをすべて書いて作られていたのに対して、2010年代以降のAIは、データをもとに帰納的に対象の特徴量を抽出して動きます。 これによりソフトウェアの作り方が大きく変わりました。ソフトウェア1.0からソフトウェア2.0になったといわれ、新しいソフトウェア工学(機械学習工学、AIソフトウェア工学)が構築されてきています。 従来のソフトウェアでは扱えなかった対象でも扱えるようになった反面、きわめて制御が難しく、制御し続けるには膨大な労力を割かなければなりません。技術的な解決策だけでなく、AI倫理を含めた社会―技術的アプローチが求められています。 いかにして人や社会にとってよい方向になるようにAIを作っていくべきか、運営していくべきか。これに対して、各種ガイドラインや報告書、提言がつくられてきました。 AIの社会的な影響がかなり深いところまで、そして広範囲に及ぶため、世界でみると数百ものAIガイドライン・報告書・提言が出ています。欧州評議会によってAI条約も策定されました。 これだけの数のAIガイドライン等が出ているので、比較検討も行われており、どのような項目を重要視するかについてはガイドライン間で違いがあります。 とはいえ、国際的に大事だといわれていることはかなり共通しています。人類全体の幸福の増進、人間中心、人権尊重、個人の尊厳・自律、公平性、正確性、透明性、アカウンタビリティ、プライバシー保護、安全性、持続可能性などです。