AIの安全性を確保する手段、その最新議論
急速に進化を続けているAI技術。世界では今、AIの信頼性や安全性に関する議論が高まっている。今年11月にはイギリスでAI安全サミットが開催され、「対応は急務」とする宣言を採択したばかりだ。 AIモデルのデータがどのようなデータで訓練されているのか、またデータの作為的操作はないかなど、訓練データに関する安全性にも注目が集まっている中、AIの安全を確保するには、現在どのような手段があるのだろうか。
AIが作り出す虚偽の世界
進化が加速しているAIに、人間がいつか(まもなく)支配される日が来るのではないかと懸念する声が多く聞こえてくる。想定以上のスピードで進化するAIに、専門家ですら恐怖を覚えている現状だ。事実ChatGPTが司法試験突破に成功し、弁護士が法廷でChatGPTを使用した例もあり、私たちの生活に確実に忍び寄っているテクノロジーであると実感できる。 今年アメリカの法廷でChatGPTを使用したケースは、機内サービスのカートでケガをしたと航空会社を訴える裁判で、参照する他の判例の検索に利用されたとするものだ。のちにそれが実在しない判例だと判明し、弁護士がChatGPTを利用したと告白して物議を醸した。 弁護士の主張によると、ChatGPTが「生成」するものとは気づかずに、検索機能だと信じていたとのこと。また、判例詳細をChatGPTに求めた際にもデータが生成されたため、それもまた「検索結果」だと信じて疑わなかったとしている。 主張の真偽は確かではないが、我々がAIを利用しているうちに忘れがちなのは、「AIモデルが現実ではない」ということと、「現実を作り出すものでもない」ということであると専門家が警鐘を鳴らしている。 このような誤情報や、間違った回答をAIが正々堂々と生成することが問題視されているものの、これから私たちが最も懸念しなければならないのは、人間の命を危険にさらす可能性のあるAIの利用である。例えば、交通機関や防衛、警備など。この分野でのAI活用に、誤作動や間違いは決して許されない。