グーグルの量子チップ「Willow」--量子エラーの大幅低減と今後の課題
Googleの量子コンピューティングサイエンティストたちは12月、この分野における画期的な成果を実証した。これにより、量子コンピューティングが現実のものであり、他の種類のコンピューターとともに貴重なリソースとして地位を確立できるという印象が強まっている。 しかし、やるべきことはまだまだ多い。サンタバーバラの研究施設で製造されたGoogleの最新の量子チップ「Willow」は、メモリーチップだ。実際に何らかの機能を処理するわけではなく、読み取るビットを保存するだけだ。Willowで何かを実行するには、長い時間をかけて論理回路を開発し、このチップを構成する「量子ビット」を利用できるようにしなければならない。 今回の根源的なブレークスルーは、Nature誌(Googleの早期公開研究論文を掲載)で説明されているように、量子ビットのエラーをしきい値と呼ばれるノイズレベル以下に低減でき、それが実現すれば、マシンが信頼性の高い情報を表現できる、すなわち許容可能なレベルのエラーで情報を表現できることを示すものだ。 それを理解するために、現在の量子ハードウェアの基本命題を考えてみよう。量子「ビット」の情報を作成するには、さまざまな材料で作られる複数の物理量子ビット(qubit)を組み合わせる必要がある。GoogleのWillowは、同社の2023年のチップ「Sycamore」の後継だ。いずれも20年前にイェール大学で開発された「トランズモン」という超伝導コンデンサーを使用して、ゼロ度を優に下回る温度に冷却される。 Googleだけでなく多数の機関の研究者が、長年にわたり、トランズモンやその他の物理量子ビットを使用して、複数の量子ビットを組み合わせて1つの「論理」量子ビットを作成する研究を進めてきた。物理量子ビットは10億分の1秒しか持続しないため、寿命が短すぎて、量子マシンの「デコーダー」回路が情報を読み取ることができない。 論理量子ビットは、実際には多数の物理量子ビットの集合であり、持続時間が物理量子ビットの2倍であるため、値を読み取って、活用することができる。 課題は、複数の量子ビットが環境ノイズの影響を受けたときに発生するエラーの抑制だった。ノイズが多すぎると、論理量子ビットが役に立たなくなる。さまざまな種類のエラー訂正が何年も前から開発されてきたが、Willowで初めて、物理量子ビットの個々のエラーが、運用可能な論理量子ビットの生成に必要なレベル(しきい値レベル)を下回った。 GoogleのWillowチップは、物理量子ビットの数が105個に増加している。鍵となるのは、チップの製造にさまざまな物理的変更を加えて、各物理量子ビットのノイズを低減することだ。その結果、「コード距離が2増えるたびに、サイクルあたりの論理エラーが半分以上減少する」とGoogleの主執筆者であるRajeev Acharya氏と共同研究者らは記している。 この点は非常に興味深い。というのも、信頼性の高い論理量子ビットをスケーリングできるからだ。つまり、ノイズをしきい値レベル以下に抑えながら、物理量子ビットをさらに追加していくことで、予測可能なほど信頼性の高い論理量子ビットが得られる。 なぜこれが重要なのか。スケーリングは従来のコンピューターチップの根本的なブレークスルーであり、膨大な数のトランジスターを四角形のシリコン上に集積して、より強力な回路を作り出すことが可能になる。物理量子ビットを確実にスケーリングできれば、論理量子ビット回路を同じ方法で作成し、性能とパフォーマンスを高める道筋が見えてくる。 Willowに関するGoogleの発表を伝えたNatureとその競合誌Scienceの記事では、この分野の専門家の見解が多数引用されている。Natureの記事が指摘しているように、専門家の意見は「真に驚くべきブレークスルー」であるという点で一致している。