人工知能の安全性評価 オープンAIが委員会設置
【ニューヨーク共同】米オープンAIは28日、人工知能(AI)の安全性を評価する新たな委員会を設置したと発表した。オープンAIの技術について90日間かけて調査と評価を行い、報告書を作成する。人間の能力を超える汎用人工知能(AGI)への懸念が高まる中、安全性を重視する姿勢を示す狙いとみられる。 オープンAIを巡っては、慎重な技術開発を持論とし、AIが与える脅威についての議論を担っていたイリヤ・サツケバー氏が14日に退社を表明した。収益性を重視するサム・アルトマン最高経営責任者(CEO)とかつて対立した経緯から、同社が安全性を軽視しているとの批判が起きていた。