完全自律型兵器のグローバルユース会議⑨脳科学者の茂木健一郎氏「AI技術の軍事活用は生死に関わる問題」
2020年12月12日に完全自律型兵器に関するグローバルユース会議がオンラインで開催されていた。国際学生会議と国際NGO連合体の「キラーロボット反対キャンペーン」が主催し、20カ国以上からの若者が参加して、完全自律型兵器に関する自国の立場、禁止を支持する理由について訴えていた。AI(人工知能)技術が発展し、人間の判断を介さないで標的を攻撃する「キラーロボット」と称される自律型殺傷兵器(Lethal Autonomous Weapons Systems:LAWS)は、人間の判断を介さないで標的を殺傷することが非倫理的であるという理由から国際NGOや世界30か国の政府が反対している。
今回は、完全自律型兵器に関するグローバルユース会議にゲストスピーカーとして参加した脳科学者の茂木健一郎氏のスピーチを紹介する。
茂木氏はビデオメッセージで登壇し、AI技術の発展によるキラーロボット、自律型殺傷兵器の問題を、科学的な視点から英語で世界中の若者に向けてスピーチしていた。
「AIが下す判断や行動は、私たち人間の下す判断とは全く異なるかもしれません」
AIの研究は生活の様々な場面で重要です。AIは車の自動運転や公共福祉システムの最適化など、これから様々な目的のために活用されていくでしょう。しかし、AI技術は軍事目的で使うべきではありません。
なぜなら人間の常識に基づいた確固たる判断ができないからです。人間の脳は判断や意志決定のための回路を長い年月をかけて進化させてきました。そして意思決定をするときには、生存本能に基づいて判断をしています。
また、その意思決定や判断はコミュニティの中で平和に共存したいという願いから来ています。しかしAIにはこのような生物の判断基準が存在しません。いわゆるキラーロボットの技術を戦場に応用した場合、AIが下す判断や行動は、私たち人間の下す判断とは全く異なるかもしれません。つまり、取返しのつかない事態になるかもしれません。例えば、核兵器の搬入、検出、無力化のプロセスにAIを適用すべきではありません。なぜならAIが誤作動をする可能性があります。そのようなプロセスを完全にコントロールすることができないので、もしこのようにAI技術で核兵器を扱うことが現実になれば全面的核戦争、そして人類と文明の終焉につながるかもしれません。
私たちはともに人類にとって良い判断をし、AI技術の軍事利用を制限、もしくは全面的に禁止する規範や条約を考え出す必要があります。AI技術の軍事活用は生死に関わる問題です。皆で一緒にこの非常に重要な議論をスタートすべきです。
(関連記事)
完全自律型兵器のグローバルユース会議①「人間の責任を確実にするため若者は重要な役割を担っています」
完全自律型兵器のグローバルユース会議②「キラーロボットの結果に苦しんで生きていくのは私たち若者」
完全自律型兵器のグローバルユース会議③「若者のアイディアと理想でキラーロボットの完全禁止を」
完全自律型兵器のグローバルユース会議④「多くの若者はキラーロボットよりも他に切迫した問題がある」
完全自律型兵器のグローバルユース会議⑤「キラーロボットが子供にどのような影響を与えるのか考えて」
完全自律型兵器のグローバルユース会議⑥「キラーロボットによる顔・音声認識技術には強く反対」
完全自律型兵器のグローバルユース会議⑦「キラーロボットは人類にとって前例のない脅威です」