OpenAIの投資計画はアポロ計画の70倍?加速し膨張するAI開発投資、バブルの懸念も
企業が負える責任を超えていないか
今やAIの開発は、開発投資の側面でも、倫理への懸念の点でも、企業の製品開発という範疇を越えている。AIの開発を主導している企業は、市場で消費者から支持された企業というよりも、むしろ注目度をテコにして巨額の資金を集めることに成功した企業だ。AI開発企業の開発方針は、市場のニーズや人々の意見を聞くことによってではなく、OpenAIのアルトマンをはじめ影響力がある少数に企業の経営者たち――ほんの一握りの人々の信念や好みで決まっている。ひたすら大規模化を図り、AGI(汎用人工知能)を一番先に作ることを目指して、巨額投資の掛け金をつり上げている。 その先に何が待ち構えているのか。AI開発企業は、規模拡大の先には「シンギュラリティー(技術的特異点)」や「AGI(汎用人工知能、人間に匹敵する、あるいは人間を越える人工知能)」が待ち構えていると信じているようだ。 だが、筆者には一つの疑問がある。 AIはデータを集めコンピューターで処理することで作られる。当たり前の話だが、その研究開発のプロセスは工学的に設計されて管理されている。つまり、AI開発企業は工学のアプローチでAI開発を進めている。 ところが、シンギュラリティーもAGIも、工学的に定義された概念ではない。シンギュラリティー(技術的特異点)とは「現状の技術では予想できないほどすごいもの」といった意味である。そしてAGIとは「人間に匹敵する、あるいは人間を超えるAI」だが、そもそも私たちは人間について――工学的にも、生物学的にも、人文学的にも――理解したといえるのだろうか。むしろ、完全には理解しきれないことが人間の本質なのではないだろうか。工学的なプロジェクトにそのような目標を設定すること自体に無理があるのではないか。
AI研究者ティムニット・ゲブルと哲学者エミール・トレスは、米国のテクノロジー業界のエリートたちの「信念体系」である”TESCREAL”を批判した論文"The TESCREAL bundle: Eugenics and the promise of utopia through artificial general intelligence"の中で、OpenAIがミッションとする「安全なAGIの開発」という課題設定は矛盾していると指摘する。工学的に定義できない目標に対しては、安全性を定義することができないからだ。ゲブルとトレスは汎用的な万能AIの代わりに「安全プロトコルを開発することができる定義されたタスクに取り組む」ことを提案する。 これは筆者の意見だが、「人間のような汎用的なAI」という目標を工学だけで達成しようとするアプローチは間違っていると考える。別のアイデアは、工学的に到達できる具体的な目標を設定することだ。 例えば、AIアシスタントが登場するSF映画「her/世界でひとつの彼女」のシチュエーションでいうなら、「離婚のような大きなストレスを受け、日常生活は営めるものの人生に向き合う気力が損なわれている人と会話して励ますAIを作る」という目標を設定するのはどうだろう。 このような目標の周辺には、例えば精神医療、医療倫理、カウンセリングの技法などの知識体系がすでに存在する。また、目標に対して手持ちの知識体系が不足していると分かれば、新たな研究テーマとして取り組めばよいのだ。これは研究開発の分野では当たり前のやり方である。このアプローチであれば、映画に描かれた万能のAIよりも安全なAIを作ることができるのではないだろうか。例えばカウンセラーであるなら、映画で描かれたような相談主への過度な感情移入は禁物なはずだ。