ノーベル賞受賞者のグーグル研究者が語る、科学とAI「AlphaFold」の未来
AlphaFoldは約30人の専門家に相談。公開前にその影響を慎重に評価するために多くの時間を費やしてきた
──3月にリリースしたAlphaFold 3には、画像生成AIモデルの「DALL·E(ダリ)」や「Midjourney(ミッドジャーニー)」に用いられるディフュージョン(拡散)モデルが統合されました。今後、AlphaFoldをさらに発展させるにあたり、他の基盤モデルをどのように統合する計画ですか? 一般的には、これらのモデルのトレーニングや制御の仕方から学んだ教訓は、科学にも応用可能です。ただし、科学には独自の側面があります。私たちのデータは非常に限られたもので、ウェブ全体にタンパク質の構造についての情報があるわけではありません。つまり、科学は、データの制約が非常に強い領域なのです。ただし、転移学習や推論技術などが進化するにつれて、これらの成果が徐々に科学の分野に取り入れられる可能性が高いと考えています。 ■悪意ある利用を防ぐには? ──AIについての議論では安全性やガードレールなどのテーマが話題になりますが、AlphaFoldの利用に関して最も懸念されることは何ですか? 私たちのモデルについてまずいえるのは、公開前にその影響を慎重に評価するために多くの時間を費やしてきたということです。AlphaFold 2の公開にあたっては、事前に約30人の専門家に相談し、「悪意を持つ者たちがこの技術をどのように悪用する可能性があるか」を尋ねました。その結果、大多数の専門家がこの技術には大きなリスクがなく、公開することに大きなメリットがあると判断したのでした。私たちは長年、このような評価プロセスを取り入れています。 もっと広い視点では、AlphaFoldの技術が悪意のある者によって他のバイオテクノロジーと組み合わされ、より危険な用途で使われる可能性についても議論しており、特にウイルスに関連するリスクを重く捉えています。AlphaFoldは、ある程度の情報を提供しますが、それだけではウイルスの病原性や感染力などのより複雑な特性を直接予測することはできません。ただし、このようなリスクについては常に注視しており、公開前の評価プロセスの対象にしています。