都知事選第5位、「令和のダ・ヴィンチ」が予測 『AIに託されるもの』『人に残るもの』
リスクは一定水準までは受け入れて良い
たとえば、人類滅亡に至るリスクのある気候変動や感染症の問題。AIを作った場合と作らなかった場合で、どちらがよりリスクヘッジになるか。相対的に見た時に、それらの課題に科学技術を応用するほうが、人類滅亡リスクは下がると私は考えます。 人類滅亡ほど大きなものではありませんが、細かいリスクで言うと、例えば先の都知事選で作ったAIあんのには「嘘の情報を言ってしまう」というリスクは確かにありました。でも、たとえそういう足元のリスクを取ってでも、 有権者とツーウェイコミュニケーションができることには民主主義をアップデートする価値があると考えていました。質問の直接的な答えではありませんが、人類が抱える大きな課題を解決する可能性がある技術であれば、そのリスクは一定水準までは受け入れて良いと思います。 ──:ダグラス・アダムスのSF小説『銀河ヒッチハイク・ガイド』(邦訳は2005年、河出書房新社刊)では、スーパーコンピューター、ディープ・ソートが「生命、宇宙、そして万物についての究極の疑問の答え」を問われます。ディープ・ソートが750万年を費やして計算、出した答えが「42」でした。安野さんがもし、次作SF小説でAIを登場させてこの問いを投げるとしたら、その回答はなんでしょう。 安野:難しい質問ですね...。最近、「答えを聞いて理解する」こと自体に限界があるなと考えることがあるんです。たとえば囲碁のソフトは、めちゃくちゃ強い手を打つんだけれども、ニューラルネットがなぜその手を導き出したかは、人間に対しては説明がされない、結果、よくわからない。 つまり、ニューラルネットの中身を見ても、「なぜここに黒い碁石を置くのか」はわからないんです。もっといえば、ニューラルネットを使うことによって、人間は「理解しなくても課題が解ける」ようになっている。 ですから、何かの問題を解決する時には「答えが得られること」が重要で、「人の脳がその答えを知ること」自体は重視されなくなっていく。脳で「わかった」と認識することがさほど意味を持たなくなっていくのではないかと思います。 今、かなり複雑な状況下のこの世界で、すこぶる歯切れよく「こいつらは敵で、こいつらは味方だ」と説き、わかった感じにさせる陰謀論もたくさんある。「わかった感がある」ことと「実態がそうである」ことは、かならずしも関連していないですよね。一方で逆に、わかった感じにはならないけれど実は、ものすごく複雑な問題を効果的に解くようなことも起きている。 最初の質問に戻れば「万物に対する答えはおそらく、人間の脳で理解できるものではすでになくなっている」。言い換えれば、その答えを人間の脳の範疇に入れることはできないのでは、と思います。