期待とリスク…AIとの共生探る 科学技術・イノベーション白書が特集
誤情報、価値観や偏見含むリスク…対策へ
第2章はわが国の研究開発を紹介した。政府が2022年4月にまとめた「AI戦略2022」などを基に進む、取り組みの実例を取り上げた。 チャットGPTをはじめ、大量のデータと深層学習技術によって、人が日常に使う言葉を生成できる「大規模言語モデル」の開発が世界的に盛んだ。一方、日本語能力の高いモデルが少なく、また一部企業による独占の懸念もある。そこでわが国でも、高度な日本語処理ができるモデルなどの開発が進む。経済産業省は、計算資源を支援するなどの取り組みを始めた。 研究機関と産業界の計算資源の共有、計算資源開発や利用環境整備への支援も実現している。理化学研究所の「富岳」などのスーパーコンピューターが、AI技術の開発や深層学習の計算にも活用。AIとスパコンの組み合せで、スケールの大きいデータ解析やモデル学習が可能になった。日本語の大規模言語モデルを開発するには、日本や日本語に関するデータベースの整備が重要となる。 一方、大規模言語モデルでは、生成された誤情報が正確にみえる「幻覚(ハルシネーション)」の問題が指摘されている。価値観や偏見、偏りを含む学習データが結果に反映されるリスクがある。政府のAI戦略会議は、機密情報漏洩(ろうえい)や個人情報の不適正利用、犯罪の巧妙化、偽情報による社会の混乱――といったリスクを指摘している。 こうした中、政府は今年2月、基準づくりなどに取り組む専門機関「AIセーフティ・インスティテュート」を設立。総務省と経済産業省は、事業者のガイドラインを策定した。総務省の検討会は、生成AIやディープフェイク(精巧な偽物)技術のリスクを含めた総合的な対策を、今年夏ごろの取りまとめに向け検討している。 AIの透明性、信頼性の確保を支える技術開発も進む。例えば外部の情報の検索を組み合わせる「検索拡張生成」などにより、出力結果の根拠が明確になる。画像識別AIの誤識別リスクを抑える技術や、AIがプライバシーを守りながら個人情報を含む学習データを分析する仕組みも開発されている。AIの知識・技能を持つ人材育成の取り組みも挙げた。 第3章は世界の動向、国際連携の状況を概説した。米国ではバイデン政権が昨年7~9月、AIを研究開発する企業15社が安全性、セキュリティー、信頼性の3原則に基づき自主的な取り組みを約束したと発表。同10月には、安全保障上の重大なリスクをもたらす基盤モデルの開発者に、安全性評価の報告を義務づけた。このほか英国、EU(欧州連合)、ドイツ、フランス、イタリア、カナダ、中国、シンガポールの取り組みを紹介した。 わが国は昨年、G7議長国としてAI分野の政策の議論を主導した。同年5月のG7広島サミットなどを踏まえ、生成AIの諸課題を議論する枠組み「広島AIプロセス」を打ち出した。同12月、国際指針や行動規範を含む「広島AIプロセス包括的政策枠組み」がまとまり、G7首脳に承認されている。