版权归原作者所有,如有侵权,请联系我们

[科普中国]-量子芯片在手 量子计算机还远么

中国科普博览
原创
中国科协、中科院携手“互联网+科普”平台,深耕科普内容创作
收藏

日前,中国量子计算机取得突破性进展,中国科技大学量子实验室成功研发了半导体量子芯片和量子存储,量子芯片相当于未来量子计算机的大脑,研制成功后可实现量子计算机的逻辑运算和信息处理,量子储存则有助于实现超远距离量子态量子信息传输。那么量子计算机相对于传统计算机有什么优势?本次成功研究的量子芯片距离真正实用的量子计算机还有多远呢?


图1 量子芯片研发成功

量子计算的基本原理
近年来,传统计算机发展中已经逐渐遭遇功耗墙、通信墙等一系列问题,传统计算机的性能增长越来越困难。因此,探索全新物理原理的高性能计算技术的需求就应运而生。
量子计算是一种基于量子效应的新型计算方式。基本原理是以量子位作为信息编码和存储的基本单元,通过大量量子位的受控演化来完成计算任务。所谓量子位就是一个具有两个量子态的物理系统,如光子的两个偏振态、电子的两个自旋态、离子(原子)的两个能级等都可构成量子位的两个状态——晶体管只有开/关状态,也就是要么是0状态,要么是1状态;而基于量子叠加性原理,一个量子位可以同时处于0状态和1状态,当量子系统的状态变化时,叠加的各个状态都可以发生变化。
举例来说,因为1个量子位同时表示0和1两个状态,7个这样的量子态就可以同时表示128个状态。N个量子位可同时存储2的N次方个数据,数据量随N呈指数增长。同时,量子计算机操作一次等效于电子计算机要进行2的N次方次操作的效果……等于是一次演化相当于完成了2的N次方个数据的并行处理,这就是量子计算机相对于经典计算机的优势。
量子计算机具有极大超越经典计算机的超并行计算能力。例如,求一个300位数的质因数,目前最好的经典计算机可能需要上千年的时间来完成,而量子计算机原则上可以在很短的时间内完成。因此,量子计算在核爆模拟、密码破译、材料和微纳制造等领域具有突出优势,是新概念高性能计算领域公认的发展趋势。
距离量子计算机还有多远
要构建量子计算式有两个要求,一个是量子逻辑门精度足够高,另一个是逻辑比特数量足够多。
量子比特可以分为物理比特和逻辑比特。物理比特并不稳定,可能现在有10个物理比特,但很快就丧失了。因此,不得不通过纠错码过程对10个物理比特做冗余,最后生成了一个逻辑比特,逻辑比特有很好的容错特性。
量子计算要产生相对于传统计算足够多的优势,有效的逻辑比特的数目必须要大于30的情况下才行,要做出真正的量子计算机则需要几百上千物理比特。而量子技术需要利用量子相干性才可以做计算,但每个量子比特都非常脆弱,很容易被环境退相干,使量子的相干性丧失,退相干的速度随着体系的扩大呈指数增加,量子比特越多,退相干速度越快。
为应对量子比特退相干的情况,就必须采用纠错码技术,鉴定噪声的可能状态,在假定了噪声特性的基础上,构建纠错码系统,构建纠错容错的理论体系。
其实,传统计算机也会发生计算错误,但可以通过纠错码计算。而量子计算机也是这样,如果能够达到容错预值(容错预值不仅仅是对操作精度,对噪声的总体水平有一个约束的关系)——外界噪声低到一定水平,操作达到一定精度之时,就可以满足容错计算。在精度上,由英国工程和物理科学研究理事会(EPSRC)资助的网络量子信息技术中心(NQIT)的科学家已经将量子逻辑门(quantum logic gate)的精度提升至99%;而国内由杜江峰院士带队的研究组在传统的纠错码下达到了更高的操作精度,量子逻辑门精度达到了99.99%,其单比特门精度已经满足容错计算的需求;本次中国科技大学量子实验室研发的半导体量子芯片也达到了满足容错计算的精度。
之前说过,在精度满足容错计算需求的情况下,有效的逻辑比特的数目超过30个就能在计算性能上取得对传统计算机的相对优势,那么有中国科技大学研发出的量子芯片的逻辑比特数达到多少呢?据笔者了解,该量子芯片由砷化镓材料制造,用量子点(用半导体工艺做出一个模拟原子能级的结构)实现量子比特,逻辑比特数量为3个。也就是说,只要进行系统扩展,把更多的逻辑比特能达到满足容错计算的精度,将逻辑比特数量扩大10倍,即可制造出在性能上超越传统计算机的量子计算机。不过,系统扩展难度非常大,建成量子计算机依旧任重道远。


图2 半导体量子芯片由郭光灿院士团队研发

中科大的量子芯片和谷歌的量子芯片有何差异
去年年底,谷歌声称成功研制出量子芯片,而且采用该芯片的量子计算机D-Wave解决问题时能够比其他任何计算机都快出一亿倍。那么,与谷歌的量子芯片相比,中科大量子实验室的量子芯片孰优孰劣呢?


图3 谷歌的量子计算机D-Wave

其实,谷歌的量子芯片和中科大量子实验室的量子芯片完全不是一回事。
谷歌的D-Wave并非真正的量子计算机,而是量子退火机,算法和一般意义理解的加减乘除的算法是有区别的,一般的算法,比如求开方或求互质是有标准的程序。而蒙特卡罗算法的一个关键步骤就是要形成一些随机数,由随机数去模拟。谷歌的D-Wave模拟了一个量子模型,经过数值分析模拟出量子的势场结构;其量子处理器由低温超导体材料制成,利用了量子微观客体之间的相互作用。因此,其体系是量子力学的。
而量子力学在微观层面上和宏观层面上是有区别的,它可以穿透一些势垒结构,比如有一道高3米,厚0.1米的墙,要翻过去必须有矫健的身手。通过量子力学,会有一定概率的普通人可以直接穿墙。但在经典层面上,用传统计算机来模拟的话,就必须老老实实的去爬墙,而这就是谷歌宣称快1亿倍的原因所在。
换言之,谷歌的量子计算机只是针对特定环节,做特殊算法的计算机。谷歌的退火算法可以在特定的环节、特定的应用中超过传统计算机,但并不具有普适性。标准量子计算机是具有普适性的计算机,可以运行各种各样的算法,类似于经典计算机,电路等效于图灵机模型,可以把图灵机的各种功能用电路来实现。计算机的电路由基本的门来构成,而标准的量子计算机也是有这样的一个概念,是由一系列基本的逻辑门来实现量子电路,进而实现各种算法功能。这种量子计算机被称为具有普适性的量子计算机,而谷歌的量子计算机就没有量子计算机对应的门的概念。谷歌的量子芯片采用低温超导技术,超导系统具有可集成性,能够集成更多的量子比特,但操作精度远远达不到量子计算的要求,这也是谷歌之所以研究量子退火,而非标准量子计算机的原因。借助超导体系已有的相对成熟的超导电子学,谷歌可以比较容易集成数量较多的量子位,但选择了这条路也意味着谷歌不存在用量子退火机“升级”,制造出量子计算机的可能性。也就是说,中科大量子实验室的量子芯片是基于量子点系统,虽然集成的量子比特会少一些,但拥有更好的量子逻辑门精度,就构建标准量子计算机而言,中科大量子实验室显然选择了正确的道路。

内容资源由项目单位提供