ローマ教皇庁、AI利用の倫理ガイドライン発表:IBM、マイクロソフトも賛同

(提供:Vatican Media/­ロイター/アフロ)

 バチカンのローマ教皇庁ライフアカデミー (Pontifical Academy for Life)は2020年2月に、人工知能(AI)の倫理的な利用に向けたガイドライン「Rome Call for AI Ethics」を発表した。ローマ教皇庁ライフアカデミーは、カトリックの生活や生命倫理、道徳神学の研究と全世界に向けたプロモーション活動を行っている。

 ローマ教皇庁ライフアカデミーではAI技術の発展と商用化に伴って、人間らしさや人間の道徳観、倫理が失われないようにAIの利活用におけるガイドライン「Rome Call for AI Ethics」をまとめ、文書はローマ教皇にも提出された。ローマ教皇庁ライフアカデミーのヴィンセント・パグリア氏は「AI技術の発展と利用の普及は世界中の人々の生活に大きな影響を与える。だからこそ我々としては、倫理的な観点でのAI技術の発展にコミットしてもらいたいと考えている」と語っている。

 「Rome Call for AI Ethics」では以下の6点の観点からAI技術の倫理的な開発と利用を訴求している。

1.透明性(Transparency):AI技術は基本的に説明可能であること。

2.包含(Inclusion):AI技術の発展が全人類の一人一人に恩恵があること。

3.責任(Responsibility):AI開発、利用においては責任を持って遂行すること。

4.公平性(Impartiality):偏見や差別に基づいたAI技術の開発や利用をしないこと。

5.信頼性(Reliability):AI技術やサービスは信頼性があること。

6.セキュリティとプライバシー担保(Security and privacy):AI技術はセキュリティに考慮して機能し、利用者のプライバシーに配慮すること。

キラーロボット開発への懸念

 ローマ教皇は以前からAI技術の倫理的な開発と利用について警鐘を鳴らしている。AI技術を活用したサービスやロボットによって職を失われることも懸念している人もいるが、AI技術の普及は時間の問題で、そのような流れを止めることは難しい。AI技術の発展によって、最も危惧されているのは、キラーロボットと呼ばれる自律化された兵器(自律型殺傷兵器:Lethal Autonomous Weapons Systems)の開発であろう。

 軍事分野におけるAI活用は既に進んでおり、ロボットは人間よりも3D(Dirty:汚い、Dull:退屈、Dangerous:危険)業務には適しており、今後も軍事分野でのAI活用は推進されていくだろう。一方で、人間の判断を介さないでAIを搭載した兵器が人間や標的を攻撃して一般市民を殺したり、AIが誤作動を起こして偶発的な攻撃をしてしまう可能性がある。そのような兵器が実戦で活用されることに対して、道徳・倫理的な観点から開発しないようにと、教皇だけでなく各国のNGOなども呼びかけている。

マイクロソフト、IBMも賛同

 今回、「Rome Call for AI Ethics」ガイドラインと教皇庁の呼びかけにマイクロソフト、IBMも賛同して署名。IBMのエグゼクティブ・バイス・プレジデントのジョン・ケリー3氏は「現在のAIはアーリーステージで、今こそ、我々はAIの開発に対する責任と人類全体の利益に貢献するという目的を倫理、人権、環境の観点から守っていかないといけません。このガイドラインに署名できるのはIBMとしても誇らしいことです」と語った。

 またマイクロソフトのプレジデントのブラッド・スミス氏は「マイクロソフトはこのガイドラインに署名することを誇りに思います。このガイドラインは、AI技術の開発における長期的な視野での倫理的な問題に対して、熟慮しながら敬意を持って取り組んでいくことができます。AI技術は世界中の社会課題の解決にもつながりますが、もし使い方を間違えると社会に大きな影響を与えます。特にグローバルな人権の伝統の観点から倫理を忘れてはなりません。私自身も教皇庁の指導者や法王のコミットメントに魅了されました」とコメントしている。

▼ローマ教皇庁ライフアカデミーでの「Rome Call for AI Ethics」発表