2018年AI動向:Google『AI利用に関する原則』公開:軍事・国際法・人権に反する利用を禁止

Googleのスンダー・ピチャイCEO(写真:ロイター/アフロ)

 2018年のAIの動向を振り返って、一番インパクトがあったのは、2018年6月にGoogleが発表した「AI利用に関する原則(ガイドライン)」だろう。Googleのスンダー・ピチャイCEOがブログにて「AI at Google: our principles」というタイトルで発表した。

背景にはGoogleのAI技術の軍事利用と社員からの反対の声

 Googleは世界中からのインターネットやスマホ、YouTube、Gメールなどの検索やサービスからあらゆる情報やデータを集積し、それらを元に機械学習し人工知能(AI)の開発を行っており、まさに世界で一番AI技術が発展していると言っても過言ではない企業だ。そのGoogleが「AI利用に関する原則(ガイドライン)」を発表したことはインパクトがあった。

 まず、Googleが2018年6月にこのようなガイドラインを発表した背景には、2017年9月に米国防総省(DoD)とGoogleが契約した「Project Maven」で、GoogleのAI技術と画像認識技術をDoDに提供。それらの技術が軍事ドローンに利用される可能性があるということで社内外から批判を浴びた。さらに2018年4月にはGoogleの3000人以上の社員が、このDoDとの契約に反対する請願書にサインしてピチャイCEOに提出し話題になっていた。

「AI利用に関する原則」7つのガイドライン

 そしてピチャイCEOは2018年6月に「AI利用に関する原則(ガイドライン)」を公表。以下の7つを掲げた。

1.社会に貢献できる利用(Be socially beneficial)

2.不公平な偏見が生じる利用をしない(Avoid creating or reinforcing unfair bias)

3.安全な開発設計とテスト(Be built and tested for safety)

4.説明責任を果たす(Be accountable to people)

5.プライバシーの保護(Incorporate privacy design principles)

6.研究成果の標準化と知識の共有(Uphold high standards of scientific excellence)

7.有害な利用の制限(Be made available for uses that accord with these principles)

AIを利用しない領域では、軍事利用、国際法・人権に反する原則も

さらに、ピチャイCEOはGoogleとしてAIを利用しない4つの領域を明らかにした。

1.有害な事象を発生させる可能性のある技術

2.人間に危害を与えることを目的とした武器、その他の関連技術

3.国際的なプライバシー規範に反する監視のための情報収集に利用する技術

4.国際法と人権の原則に反する技術

 ピチャイCEOは「Googleは、AIのリーダー企業として、AIの正しい利用方法について大きな責任を感じている。このAI利用原則は、ただの理論的な概念だけではなく、Googleの研究開発と製品開発の方針を示している。そして、意思決定に影響を与える具体的な基準である」とコメント。

 2018年は特にAIでの軍事利用への懸念が大きく議論された年でもあった。AI技術において世界一の研究開発と技術力、商用サービスへの取組が一番進んでいるGoogleがAI利用原則を示したことのインパクトは大きかった。