OpenAIの最新モデル「GPT-4o」にスカーレット・ヨハンソンが激怒、くすぶる倫理課題
組織文化への疑問の声が上がる
実は今、OpenAIの元従業員から組織文化への批判の声が上がっている。 2024年5月15日、OpenAIの共同創設者兼チーフ・サイエンティストだったイリヤ・サツケバーが退職を発表した。サツケバーはAIの安全性を担保する役割を担っており、2023年11月のサム・アルトマン解任劇の中心人物だった。その去就は注目されていた。 3日後の5月18日、OpenAIのアライメント責任者だったヤン・ライケが退職を発表した(注:「アライメント」はAIを安全に公開するための調整を指す言葉である)。そのさい「長い間、OpenAI のリーダーシップと同社の中核的な優先事項について意見が合わず、ついに限界に達した」「過去数年間、安全文化とプロセスは派手な製品に後れを取ってきた」とOpenAIの社内文化を批判した。 今まで、OpenAIの退職者からの批判の声はほとんど目立たなかった。その理由として、社員が生涯にわたり元雇用主への批判を禁じる契約があったと報じられた。 5月29日、元OpenAI理事のヘレン・トナー氏は、「理事会はチャットボットChatGPTのリリースを事後に知らされた――Twitterで初めて知った」ことを明かした。またアルトマンCEOは、理事たちの懸念の声に対して、常に「たいしたことじゃない」「誤解された」といった無難な説明で乗り切ろうとし、理事会とアルトマンとの間の溝は深まっていったという。 ここで強調しておきたい大事なことがある。2022年11月のChatGPTの公開まで、OpenAIはAI技術を一般向けに公開することに慎重な態度を取っていた。2020年にOpenAIが一部の開発者向けに限定公開した「GPT-3」はその性能の高さで大きな話題になったが、一般向けには公開していない(筆者による関連記事)。GPT-3に関する論文の中では「利用範囲を広げることには慎重であるべきだ」との知見が記されている。