「人権のリスクに関わるようなAI技術はきちんと監視して、使用されないようにすべきです」

国連人権高等弁務官で元チリ大統領のミシェル・バチェレ氏は2021年9月にAI(人工知能)技術が人権を侵害するようなことに使用されないようにと訴えていた。国連人権高等弁務官事務所では以前からAIの兵器への活用や人権侵害につながる不正利用については反対を主張している。

バチェレ氏は「国際人道法に基づかないAI技術の活用は、人権の観点からも人間を危険に晒すので禁止すべきだ。AI技術は社会の良い面や発展に使用されるのはとても素晴らしいです。しかしAI技術にはネガティブな面があります。特に人間が十分に関与しないで、AIだけが判断して人間の大きな破壊につながりかねないことがあります」と訴えていた。

また「現在、AI技術は私たちの生活の中でのあらゆるところで使用されています。それらは物理的にも精神的にも、私たちの生活に影響を与えています。しかしAIが間違って判断して人を逮捕したり、不正に利用されることもあります。あらゆる情報やデータを収集してAI技術は強化されていきますが、AIが判断することによって差別につながるリスクもあります。またAI技術の判断だけで人間の判断が入らないことによって、人間の命がリスクに晒されることもあります。このような人権のリスクに関わるようなAI技術はきちんと監視して、使用されないようにすべきです。AI技術の強化や開発においては企業や国で、もっと透明性をもつべきです。AI技術が人間の生活に及ぼす影響は計り知れないです。だからこそAI技術が人権を侵害したり、巨大な破壊につながらないようにしないといけません」と語っていた。

AI技術の発展によって懸念されるキラーロボット

AI技術の発展によって人間が判断しないで、AIを搭載した兵器自身が判断して標的に攻撃を行い殺傷する「キラーロボット」と呼ばれる自律型殺傷兵器が開発されようとしている。人間の判断を介さないで標的を攻撃して敵を殺傷することが非倫理的であると国際NGOや世界30の国が自律型殺傷兵器の開発と使用に反対している。特にバチェレ氏が懸念を示しているように、AI技術によって特定の民族やジェンダーなどを識別して、標的にして攻撃をすることも可能である。

だが、一方でAI技術の軍事への活用は積極的に行われており、アメリカ、中国、ロシア、イスラエル、トルコなどでは自律型兵器の開発が進められており、現実的な兵器となってきている。新たな技術の発展が軍事分野で利用されるのは歴史的にも常であり、そのようにして軍事技術も民生品も発展してきた。

また人間が遠隔地で操作するドローンも人間の判断によって標的が攻撃されるが誤爆などもあり、決して精確な攻撃ができるわけでもなく、民間人(非戦闘員)が犠牲になることもある。さらに、人間の生死の判断は人間がすべきだが、戦争においては過去にも人間が一番残虐な判断をしてきたことも多い。そして軍人が戦場に行かないで済むことから、攻撃する側の軍人が戦場で殺されるリスクは低減するので、攻撃する側の軍人の"人間の安全保障"は守られる。