心、道徳、自由意思……AIと人間を分ける「決定的な条件」について、哲学はどのように考えるか?
近年、AIの発達は凄まじい。ChatGPTのような生成AIが誕生し、人間の役割もいつかはAIに代わるという時代がやってくる。 しかし、本当にAIは人間を超えることができるのだろうか? 人間にしかない「心」と大きな関連性を持つ「自由」と「自由意思」について解説する。 (※本記事は『哲学の世界』から抜粋・編集したものです。)
自由意志は必要か?
「自由とはなにか」ということについて、大きく3つの考えかたがある。すなわち、ある時刻tにおけるある行為Aが行為者Xの自由な行為であるとは、 (1)Xは、tにおいてA以外の行為を行うことが可能であったということ (2)AがX自身から生じたものであること (3)AがX自身のものであること の3つの立場である。次に、そもそも私たちに自由意志は必要なのだろうか? ということについても議論しておこう。自由意志が存在するとしてなにかいいことがあるのだろうか? ロバート・ノージックによると、自由意志がないならば私たちは矮小化され、外部の諸力のおもちゃに過ぎないようにみえてしまうという。つまり、AIロボットや人間以外の動物とは異なる人間の尊厳を守るためにも自由意志が必要だというのだ。 まあ、人間の尊厳を守るなどと哲学が言い出すと個人的にはちょっと(かなり? )胡散臭い感じがしてしまうのだが、(現存の)AIロボットと人間との違いのひとつとして、自由意志のあるなしをもってくるというアイデアは重要かもしれない。というより、むしろ将来AIが発展したときに、「このAIには自由意志がある」と言える基準を見出すことによって現存のAIとより高度なAIとの違いが明確になるだろう(そしてそれは「心」の問題にも繋がっていくだろう)。 すくなくとも現在のAIは高度な自律性があっても、それだけだとやはり人間と同様だとは思えないが、その要因のひとつとして、それらの行動は「自律的ではあっても自由だとまでは言えない」と私たちが考えるからだと思われる(では「自律的」と「自由」の区別はなにか? )。 また、自由の問題は道徳的責任の問題にも関連する。というよりも、ある人の行為が自由意志に基づいたものでないならばその人にはその行為に対する道徳的責任もないように思えることが、哲学で自由意志が問題となるもっとも大きな理由とも言える(そして、将来的にAIが発展したときにAIが自由意志に基づいて行為したか――AIに道徳的責任があるか――を判断する基準をつくることの必要性にもなる)。 つまり、もし自由意志に基づく行為というものが存在しないならば、道徳的責任もないように思えるのである。