前編で紹介したIBMの17量子ビットの実現の裏で、Googleからも22量子ビットのチップをテスト中であるというニュースが流れた。
Googleは、良質な量子ビットを作製できるJohn Martinis氏を迎えて量子コンピュータ開発を加速している。
東京大学・助教 藤井啓祐氏(ウェブサイトから引用)
「Googleはこれまでも非常に精度の高い量子ビットを作っていたため、22量子ビットのチップを開発することに成功したわけです。そのチップを使って量子コンピュータでしかできないようなレベルで効率の良い計算、量子シミュレーションをやるようです。この22量子ビットによって実行される計算は、現在のデジタルコンピュータで、頑張ればワークステーションレベルのマシンでも実行できる程度ではあるのですが、市販のデスクトップマシン1台では難しい水準の計算です。さらにGoogleは2017年末にスーパーコンピュータでも難しいレベルに挑戦するために、49量子ビットの量子コンピュータを実現すると豪語しています」(東京大学・助教 藤井啓祐氏)
量子コンピュータが実現したとしても、それは新しい形式のコンピュータである。今までのコンピュータにできることを別のマシンにただ置き換えるだけではないのか、そう感じる読者もいるかもしれない。
しかしこの49量子ビットによりスーパーコンピュータの計算能力を凌駕することを示すと言う挑戦には大きな意味がある。
49が意味するのは7×7=49、縦横に量子ビットを並べていることを示していると予想されている。
49量子ビットの量子状態を従来のコンピュータでシミュレーションすると2の49乗、莫大な数字で15桁にも及ぶ数値だ。100ペタビットを優に超えるメモリが必要になりスパコンの手にも負えない。
これまでのコンピュータで間違いが生じる場合には、「2つの異なる状態の間で反転をする」類の誤りが生じる。一方で量子コンピュータの場合には、それだけではなく「2つの状態の組み合わせ方がずれる」という別のタイプの誤りが存在する。
その両方の誤りを克服して量子ビットを保持する必要があるため、非常に高度な誤り訂正技術の発展が不可欠となる。