OpenAIの最新モデル「GPT-4o」にスカーレット・ヨハンソンが激怒、くすぶる倫理課題
ChatGPTを理事会に知らせず公開したことは、AIの安全性に関する方針が大きく変わったことを示すものだ。ChatGPTの公開に関して、筆者は「OpenAIがAIアライメント(調整)の技術に自信を持ったので公開したのだろう」と想像していた。だが、OpenAI理事らの懸念や、アライメント責任者だったヤン・ライケの批判の声に耳を傾けるなら、むしろ「OpenAIはAIの安全性の基準を緩めた」と見た方が妥当なようだ。 このようにOpenAIの企業文化への疑問の声は高まっている。 映画「her/世界でひとつの彼女」を思い出してみよう。映画で描かれたAIアシスタント「サマンサ」は、少なくとも人間をより深く理解しようとした。ただしその方法は人間の基準から大きくかけ離れていたために、ホアキン・フェニックス演じる主人公は苦しむことになる。 OpenAIは「サマンサ」のようなAIを作ろうとする前に、人間について理解しようとするべきだった。スカーレット・ヨハンソンの問題は、実は私たち全員の問題である。明日には、別の誰かが――あなたや、その身近な人々の尊厳が傷つけられる事件が起きるかもしれない。 そのためには、OpenAIや他のAI開発企業は、社内外の複数の異なる意見を傾聴する仕組みを構築するべきだ。複数の声を聞くためのテクノロジーに取り組む人々も登場している(例えば、この動画では台湾の前デジタル大臣オードリー・タンが意見の複数性への取り組みについて語っている)。AI開発企業やテクノロジー企業は、社内の人々が抱いた会社の方針への疑問や社外から上がる批判の声を無視するのではなく、傾聴する仕組みを作った方がいい。(敬称略)