仅是量子计算“星辰大海”的第一步
视觉中国供图
一台30个量子比特的量子计算机的计算能力和一台每秒万亿次浮点运算的经典计算机水平相当。据科学家估计,一台50比特的量子计算机,在处理一些特定问题时,计算速度将超越现有最强的超级计算机。
早在20世纪80年代,美国著名物理学家费曼提出了按照量子力学规律工作的计算机的概念,这被认为是最早的量子计算机的构想,此后科技界就没有停止过探索。
近年来,量子计算机领域频频传来重要进展:美国霍尼韦尔公司表示研发出64量子体积的量子计算机,性能是上一代的两倍;2020年底,中国科学技术大学潘建伟教授等人成功构建76个光子的量子计算机“九章”;2月初,我国本源量子计算公司负责开发的中国首款量子计算机操作系统“本源司南”正式发布……
作为“未来100年内最重要的计算机技术”“第四次工业革命的引擎”,量子计算对于很多人来说,就像是属于未来的黑科技,代表着人类技术水平在想象力所及范围之内的巅峰。世界各国纷纷布局量子计算并取得不同成就后证实,量子计算虽然一直“停在未来”,但“未来可期”。
摩尔定律终结后量子计算将担重任
20世纪60年代,平面型集成电路问世,光刻技术成为了半导体元器件性能的决定因素:只要光刻精度不断提高,元器件的密度也会相应提高。因此,平面工艺被认为是“半导体的工业键”,也是摩尔定律问世的技术基础。
摩尔定律指出,平均每18个月,集成电路芯片上所集成的电路数目就翻一倍。虽然这并不是一个严谨的科学定律,但在一定程度上反映了信息化大数据时代人类对计算能力指数增长的期待。
随着芯片集成度不断提高,我们的手机、电脑等电子产品也在不断更新换代。那么,摩尔定律会不会被终结?
摩尔定律的技术基础天然地受到两种主要物理限制:一是巨大的能耗让芯片有被烧坏的危险。芯片发热主要是因为计算机门操作时,其中不可逆门操作会丢失比特,每丢失一个比特就会产生相应热量,操作速度越快,单位时间内产生的热量就越多,计算机温度必然会迅速上升,必须消耗大量能量用于散热,否则芯片将被高温烧坏。
二是量子隧穿效应会限制集成电路的精细程度。为了提高集成度,晶体管会越做越小,当晶体管小到只有一个电子时,量子隧穿效应就会出现。在势垒一边平动的粒子,当动能小于势垒高度时,按照经典力学,粒子是不可能越过势垒的;而对于微观粒子,量子力学却证明它仍有一定的概率贯穿势垒,实际也是如此,这种现象称为隧穿效应。简单来说,当集成电路的精细程度达到了一定级别,特别是当电路的线宽接近电子波长的时候,电子就通过隧穿效应而穿透绝缘层,使器件无法正常工作。
鉴于以上两点,物理学家预言摩尔定律终将终结。现有基于半导体芯片技术的经典计算机,芯片集成密度不可能永远增加,总会趋近于物理极限,应付日益增长的数据处理需求可能越来越困难。
最新一代的英特尔酷睿处理器,它的芯片每一平方毫米的面积已经集成了一亿个晶体管。我国的太湖之光超级计算机,大约用了四万多个CPU。如果摩尔定律终结,提高运算速度的途径是什么?破局的方向指向了量子计算。
量子比特让信息处理速度指数提升
给经典计算机带来障碍的量子效应,反而成为了量子计算机的助力。
费曼认为微观世界的本质是量子的,想要模拟它,就得用和自然界的工作原理一样的方式,也就是量子的方式才行。他将物理学和计算机理论联系到一起,提出了基于量子态叠加等原理的量子计算机概念。
比特是信息操作的基本单元,基于量子叠加态原理,科学家们尝试用量子比特取代经典比特。
经典比特有且仅有两个可能的状态,经常用“0”和“1”来表示,就好比一个开关,只有开和关两个状态。而量子比特就好比一个旋钮,是连续可调的,它可以指向任何一个角度。也就是说,量子比特不只有两个状态,可以处于0和1之间任意比例的叠加态。想象一下,一枚摆在桌上静止的硬币,你只能看到它的正面或背面;当你把它快速旋转起来,你看到的既是正面,又是背面。于是,一台量子计算机就像许多硬币同时翩翩起舞。
假设一台经典计算机有两个比特,在某一确定时刻,它最多只能表示00、10、01、11这四种可能性的一种;而量子计算由于叠加性,它可以同时表示出四种信息状态。
对于经典计算机来说,N个比特只可能处在2N个状态中的一种情况,而对于量子比特来说,N个量子比特可以处于2N个状态任意比例叠加。理论上,如果对N个比特的量子叠加态进行运算操作,等于同时操控2的N次方个状态。随着可操纵比特数增加,信息的存储量和运算的速度会呈指数增加,经典计算机将望尘莫及。
有报道指出,一台30个量子比特的量子计算机的计算能力和一台每秒万亿次浮点运算的经典计算机水平相当,是今天经典台式机速度的一万倍。据科学家估计,一台50比特的量子计算机,在处理一些特定问题时,计算速度将超越现有最强的超级计算机。
多种发展方案未来可期
量子计算机是宏观尺度的量子器件,环境不可避免会导致量子相干性的消失(即消相干),一旦量子特性被破坏,将导致量子计算机并行运算能力基础消失,变成经典的串行运算,这是量子计算机研究的主要障碍。
即便量子计算机的研究已经出现诸多成果,但还处在早期发展的阶段。倘若类比经典计算机,今天的量子计算机几乎是位于经典计算机的电子管时代,就连最底层的物理载体还没有完全形成。
目前主流的技术路径有超导、半导、离子阱、光学以及量子拓扑这五个方向,前四种路径均已制作出物理原型机。各国科学家研究比较多、也相对成熟的有超导量子计算、半导量子点量子计算等。
超导量子计算的核心单元是一种“超导体-绝缘体-超导体”三层结构的约瑟夫森结电子器件,类似晶体管的PN结。其中间绝缘层的厚度不超过10纳米,能够形成一个势垒,超导电子能够隧穿该势垒形成超导电流。与其他量子体系相比,超导量子电路的能级结构可通过对电路的设计进行定制,或通过外加电磁信号进行调控。而且,基于现有的集成电路工艺,约瑟夫森结量子电路还具有可扩展性。这些优点使超导量子电路成为实现可扩展量子计算最有前景的物理方案之一。
量子点量子计算,是利用了半导体量子点中的电子自旋作为量子比特。量子点是一种有着三维量子强束缚的半导体异质结结构,其中电子的能级是分立的,类似于电子在原子中的能级结构,因此被称为“人造原子”。量子比特编码在电子的自旋态上,使用微波脉冲或者纯电学的方法进行单量子比特操控。量子点方案的优点则是量子位可以是嵌套在固态量子器件上,这与经典计算机的大规模集成电路的设计相似,被认为是最有可能实现大规模量子计算机的候选方案。
量子计算机的运算速度取决于其能够操控的量子比特数。由于消相干的存在,操控量子比特难免出现错误,从而计算失效。以超导量子计算为例,一亿次的操控最多只允许犯一次错误。操控量子比特难度如此之大,以至于早期许多科学家认为量子计算机不可能制造出来。
目前而言,超导量子芯片要比半导体量子芯片发展得更快。2019年,谷歌公司发布了53个超导量子比特的量子计算原型机“悬铃木”。2020年12月4日,中国科大潘建伟团队构建起76个光量子的量子计算原型机“九章”,处理高斯玻色取样的速度比目前最快的超级计算机快一百万亿倍。
不过,无论是“悬铃木”还是“九章”,目前都只是仅能够处理运算特定数学问题的“原型机”。而我们的“星辰大海”是造出有大规模容错能力的通用量子计算机。毕竟,量子时代的“未来已来”,超强的量子计算值得期待。