OpenAIはコレで揉めた。「AIアライメント」ってそんなに大事なの?
人間より賢いAI≠有用ではないかもしれない
「AI」という言葉を耳にしない日はないぐらい、AIブームに沸く昨今。 実際に使ってみると、難解な書類をサクッと要約してくれたり、自分の好みに合った音楽や情報を届けてくれたりと、たしかに生活を彩る便利機能が満載です。 でもこのままAIがどんどん賢くなっていって、やがて人間の知能を超越したとしたら、どのようなリスクが想定されるのでしょうか? この点については、「AI研究のゴッドファーザー」と呼ばれるトロント大学のジェフリー・ヒントン名誉教授が日経新聞のインタビューで語っていた内容がひときわ印象的なので、ここに引用します。 ──なぜAIが人類を脅かす可能性があると思うのか。 「AIに目標を与えた場合に、解決策として人間に不都合な方法を見つけ出すかもしれないためだ。」 マイクロプラスチック問題を解決して!とAIに頼んだとして、もしAIが「そうか、人間がいなくなればプラスチックも生成されなくなるじゃないか」と考えたとしたら…? 人間よりも賢いAIですから、人間がどんなに説得しようとしても、逆にAIに論破され、操られてしまうかもしれません。 ヒントン氏の教え子であるイリヤ・サツキバー氏も師の憂いを共有しているからこそ、オープンAIを去ったのかもしれません。AIのリスク規制はオープンAIだけの問題ではなく、各国の政府にも対応が迫られています。 Source: IBM, OpenAI, 日経新聞 Reference: Business Insider, CNBC, Bloomberg
山田ちとら