AI競争の果ては人類の破滅か トップ投資家たちの熾烈な争い
理想郷をいかに実現するか
■理想郷をいかに実現するか コースラやホフマン、そして一部の有力なテック業界のリーダーたちにとって悔やまれるような、意図せぬ影響を緩和する手段はある。AIの開発を制御し、利用を規制するのだ。大手のグーグルとマイクロソフトも同意見であり、さらにはチャットGPTを開発した、コースラとホフマンがともに初期投資家でもあるオープンAIも賛同している。理想郷を実現するかたちでAIの潜在能力を発揮させるためには、脱線を防止する「ガードレール」が必要だという彼らの意見には、バイデン大統領も耳を傾けている。コースラとホフマンのベンチャー投資家コンビは、大統領の寄付者でもある。また、この考え方はエマニュエル・マクロン仏大統領にも響いており、昨秋、大統領はホフマンを朝食会に招き、彼が言うところの人間の知能を増幅させる新しい「知の蒸気機関」、AIについて話し合った。 「できるだけ多くの医師のような善意の人々の助けになり、一方で犯罪者のような悪意ある人間にできるだけ利用されないようにするためには、どうすればいいでしょうか」。リンクトインの共同創業者であるホフマンは、そう口にしてこの課題に考えを巡らせる。「私の考えは、賢明にリスクを取りながら、またそういったリスクを認識しながら、AIの発展を加速させるいちばんの早道を見つけることです」 しかし、コースラやホフマン、そして彼らが訴えるすべてを全力で阻止しようする別の派閥が、以前にも増して主張を強めている。この一派を率いるのは、ネットスケープとベンチャー投資会社アンドリーセン・ホロウィッツ(a16z)の共同創業者であるマーク・アンドリーセンだ。アンドリーセンの仕事仲間や彼らに連なるオープンソース絶対主義者たちのグループでは──こちらもまとまりのない一団で、オープンソースのAI新興企業であるハギングフェイスとミストラルの両CEO、メタの最高AI科学者を務めるヤン・ルカンなどに加え、テスラのCEOでXを所有するイーロン・マスクも(時々ではあるが)並ぶ──先述のような大惨事の可能性や国家レベルのリスクを強調する議論は、多くの場合、AIの世界で早くから力を得た者たちがそれを維持すべく繰り広げているふらちな作戦と見なされている。 「安全性の問題はありません。現在のテクノロジーに人類の存亡にかかわるリスクは存在しないのです」と、ルカンは言う。「大手企業は、AIは危険だから規制すべきだ、開発を閉鎖的にしておくべきだ、と主張します」と、AI投資家でアンドリーセンの同僚でもあるマーティン・カサドは指摘する。「典型的な“規制のとりこ”(規制の内容が規制対象にとって都合のよいものになること)の例です。他社の開発などを停止させるために使われるレトリックです」 アンドリーセンと仲間たちが想像するのは、AIの危険性ではなく最善の展開がもたらす未来で、AIが病気や早過ぎる死を防ぎ、あらゆるアーティストやビジネスパーソンがAIアシスタントを利用して自分の仕事を向上させる世界だ。戦争では、大量の血が流れるような人間による重大ミスがなくなり、犠牲者が減る。AIを活用したアートや映画が至る所に現れる。アンドリーセンは本稿のためのインタビューを断っているが、自身の見解を詳述した昨年の声明のなかで、オープンソースの楽園を思い描いている。AI開発を鈍化させる規制の壁や、新興企業を犠牲にして大企業を守る官僚主義的な参入障壁のない世界だ。