「街に失業者があふれようがおかまいなし」ビッグテックがAI開発に全力を注ぐ真の理由とは..「貧富の差」「モラル」を無視して進む<人工知能民主主義>に希望はあるか
AIは必ず正しい判断をするか
先日Google製のGeminiとやりとりしているうちに、Geminiが勝手に「OpenAIの創業者のなかにエプスタインと関係が深い人物もいた」と言い出して、とても驚かされたことがあった。 ジェフェリー・エプスタインのことは記憶している人も多いかもしれない。裕福な実業家だったが、児童への性的暴行などの容疑で逮捕・有罪となり、19年には拘留先で死亡した人物だ。 しかし、彼とOpenAIの創業者との関係などは聞いたことがない。逆にChatGPTに「エプスタインとビル・ゲイツとの関係」について聞き直したら、答えをはぐらかされたが、こうしたやり取りだけを見ても、AIに各社の「思想」や「検閲」が入っていることは明白だ。 筆者はAI研究家として活動しているが、ChatGPTやGeminiといった会話型AIに何か重要な決断を聞くというのは、やはり間違っていると思う。それは、まだまだ調整が不足しているし、原理的に、そこまで複雑な問題に答えるものではないから。 一般の人から見れば、占い程度のものと思っておいて間違いない。使い方次第ではうまく使えるだろうが、使い方を知らなければ、ただただ振り回されるだけだ。 なお筆者が「AIが必ず正しい判断をする」と断じた際、引き合いに出しているのは強化学習によるAIのみである。 強化学習によるAIとは、得られる成果を大きくするために、自ら学習を重ねていくAIのことを指す。囲碁や将棋といったゲームで、人間相手に勝利するAIがその典型だ。これらのゲームにおいて、もはや人間がAIに勝てないのは周知の通り。 このAIは産業分野などですでに実用化されており、工事計画立案や装置の制御、戦闘ドローンのコントロール、作戦立案といった分野で活用されている。直接携わっている人はおそらく認識しているだろうが、この先この分野で、人間の出番が来ることはもうないだろう。
使う側の人間のモラルの問題
最初に戻るが、以上の状況を踏まえて「人工知能民主主義」に警鐘を鳴らす気持ちもAI研究家としてよくわかる。 人工知能民主主義において即急に問題になるとすれば、人工知能にどのようなデータを入力し、人工知能の出力をどのように解釈するかという、使う側の人間の「モラルの問題」なのではなかろうか? 意図的に何かに有利、または不利になるようなデータを誰かが学習させれば、人工知能は簡単に騙されてしまう。統治者として判断を委ねられる人工知能ができたとしたら、そこに入力するデータのほうに透明性が必要になる、ということだ。 もしもGoogleやMicrosoftといったビッグテックが、自社の経営をAIに委ねたら、それは「自社の利益を最大化する」といった目的に対して最適化されるだろうし、ChatGPTやGeminiはそれぞれ、MicrosoftとGoogleにとって都合の良い答えしか返さなくなるだろう。 なので、この分野で競争が起きることはむしろ健全で、もっと多くの組織や企業がいろいろな観点で独自の大規模モデルを作るべきだと個人的には強く思う。それこそが東氏の言う「訂正可能性」であり、「どのAIの意見が正しいのか」を議論するということだ。