郭光灿:中国量子计算机发展明显落后美国,但仍有机会

赛先生 2017-01-07

  编者按

  2016年11月18日,中科院软件所研究员杨超与清华大学副教授薛巍、付昊桓等人联合北师大组成的研究团队凭借在“神威·太湖之光”上运行的“千万核可扩展全球大气非静力云分辨模拟”应用,一举摘下国际高性能计算应用领域最高奖—戈登贝尔奖。同时,中科院计算机网络信息中心基于“神威·太湖之光”的“钛合金微结构演化相场模拟”也成功入围,获得提名。

  高性能计算能力是国家重要科技实力的体现,中科院、科技部率先部署和支持了高性能计算相关规划与建设。到2016年,中国科学院高性能计算环境已为我国科研服务20年,支撑了多个国家重大规划、千余项国家各类科研项目。

  虽然中国高性能计算已经取得了里程碑性的成绩,不过科研工作者的脚步从未停止。他们已经在思考,未来的发展方向在哪里,并将目光瞄向了“天然的超级计算机”—量子计算机。

  本文根据郭光灿院士在“纪念HPC@CAS20周年学术研讨会”上的报告整理、编辑而成,并经本人审阅。

  出品 科普中国

  制作 中国科学技术大学 郭光灿 中国科普博览

  监制 中国科学院计算机网络信息中心

  1

  “杞人忧天”的物理学家们

  与量子计算机的诞生

  量子计算机的诞生,和著名的摩尔定律有关,还和“杞人忧天”的物理学家们有关。

  众所周知,摩尔定律的技术基础是不断提高电子芯片的集成度(单位芯片的晶体管数)。集成度不断提高,速度就不断加快,我们的手机、电脑就能不断更新换代。

  图1. 摩尔定律

  在20世纪80年代,摩尔定律很贴切地反映了信息技术行业发展。但“杞人忧天”的物理学家们,却提出了一个“大煞风景”的问题:

  摩尔定律有没有终结的时候?

  之所以提出这个问题,是因为摩尔定律的技术基础,天然地受到两个主要物理限制。

  一是巨大的能耗,芯片有被烧坏的危险。

  芯片发热主要是因为计算机门操作时,其中不可逆门操作会丢失比特。物理学家计算出每丢失一个比特所产生的热量,操作速度越快,单位时间内产生的热量就越多,计算机温度必然迅速上升,必须消耗大量能量来散热,否则芯片将被烧坏。

  二是为了提高集成度,晶体管越做越小,当小到只有一个电子时,量子效应就会出现。电子将不再受欧姆定律管辖,由于它有隧道效应,本来无法穿过的壁垒也穿过去了,所以量子效应会阻碍信息技术继续按照摩尔定律发展。

  这两个限制就是物理学家们预言摩尔定律会终结的理由所在。

  隧道效应:

  由微观粒子波动性所确定的量子效应,又称势垒贯穿。本质上是量子跃迁,粒子迅速穿越势垒。在势垒一边平动的粒子,当动能小于势垒高度时,按照经典力学,粒子是不可能越过势垒的;而对于微观粒子,量子力学却证明它仍有一定的概率贯穿势垒,实际也正是如此,这种现象称为隧道效应。

  虽然这个预言在当时没有任何影响力,但“杞人忧天”的物理学家们并不“死心”,继续研究,提出了第二个问题:

  如果摩尔定律终结,在后摩尔时代,提高运算速度的途径是什么?

  这就导致了量子计算概念的诞生。

  量子计算所遵从的薛定谔方程是可逆的,不会出现非可逆操作,所以耗能很小;而量子效应正是提高量子计算并行运算能力的物理基础。

  甲之砒霜,乙之蜜糖。对于电子计算机来说是障碍的量子效应,对于量子计算机来说,反而成为了资源。

  量子计算的概念最早是1982年由美国物理学家费曼提出的。1985年,英国物理学家又提出了“量子图灵机”的概念,之后许多物理学家将“量子图灵机”等效为量子的电子线路模型,并开始付诸实践。

  但当年这些概念的提出都没有动摇摩尔定律在信息技术领域的地位,因为在相当长时间内摩尔定律依然在支撑着电子计算机的运算速度的飞速提高。

  直到今年,美国政府宣布,摩尔定律终结了。微电子未来的发展方向是低能耗、专用这两个方向,而不再是追求速度。

  从这个例子,人们再次看到,基础研究可能在当时看不到有什么实际价值,但未来却会发挥出巨大作用。

  2

  量子计算机虽然好

  研制起来却非常难

  量子计算机和电子计算机一样,其功用在于计算具体数学问题。

  所不同的是,电子计算机所用的电子存储器,在某个时间只能存一个数据,它是确定的,操作一次就把一个比特(bit,存储器最小单元)变成另一个比特,实行串行运算模式;而量子计算机利用量子性质,一个量子比特可以同时存储两个数值,N个量子比特可以同时存储2的N次方数据,操作一次会将这个2的N次方数据变成另外一个2的N次方数据,以此类推,运行模式为一个CPU的并行运算模式,运行操作能力指数上升,这是量子计算机来自量子性的优点。量子计算本来就是并行运算,所以说量子计算机天然就是“超级计算机”。

  图2. 量子计算机工作原理

  要想研制量子计算机,除了要研制芯片、控制系统、测量装置等硬件外,还需要研制与之相关的软件,包括编程、算法、量子计算机的体系结构等。

  一台量子计算机运行时,数据输入后,被编制成量子体系的初始状态,按照量子计算机欲计算的函数,运用相应的量子算法和编程,编制成用于操作量子芯片中量子比特幺正操作变换,将量子计算机的初态变成末态,最后对末态实施量子测量,读出运算的结果。

  一台有N个量子比特的量子计算机,要能保证能够实施一个量子比特的任意操作和任意两个量子比特的受控非操作,才能进行由这两个普适门操作的组合所构成的幺正操作,完成量子计算机的运算任务。这是量子芯片的基本要求。如果要超越现有电子计算水平,需要多于1000个量子比特构成的芯片。目前还没有这个能力做到。这种基于“量子图灵机”的标准量子计算是量子计算机研制的主流。

  除此以外,还有其他量子计算模型,如:单向量子计算,分布式量子计算,但其研制的困难并没有减少。另外,还有拓扑量子计算,绝热量子计算等。

  由于对硬件和软件的全新要求,量子计算机的所有方面都需要重新进行研究,这就意味着量子计算是非常重要的交叉学科,是需要不同领域的人共同来做才能做成的复杂工程。

  3

  把量子计算机

  从“垃圾桶”捡回来的

  量子编码与容错编码

  实现量子计算机最困难的地方在于,这种宏观量子系统是非常脆弱的,周围的环境都会破坏量子相干性(消相干),一旦量子特性被破坏将导致量子计算机并行运算能力基础消失,变成经典的串行运算。

  所以,早期许多科学家认为量子计算机只是纸上谈兵,不可能制造出来。直到后来,科学家发明了量子编码。

  量子编码的发现等于把量子计算机从“垃圾桶”里又捡回来了。

  采用起码5个量子比特编码成1个逻辑比特,可以纠正消相干引起的所有错误。

  不仅如此,为了避免在操作中的错误,使其能够及时纠错,科学家又研究容错编码,在所有量子操作都可能出错的情况下,它仍然能够将整个系统 纠回理想的状态。这是非常关键的。

  什么条件下能容错呢?这里有个容错阈值定理。每次操作,出错率要低于某个阈值,如果大于这个阈值,则无法容错。

  这个阈值具体是多大呢?

  这与计算机结构有关,考虑到量子计算的实际构型问题,在一维或准一维的构型中,容错的阈值为10^-5,在二维情况(采用表面码来编码比特)中,阈值为10^-2。

  目前,英国Lucas团队的离子阱模型、美国Martinis团队的超导模型在单、双比特下操作精度已达到这个阈值。

  4

  量子计算机的“量子芯”

  量子芯片的研究已经从早期对各种可能的物理系统的广泛研究,逐步聚焦到了少数物理系统。

  20世纪90年代时,美国不知道什么样物理体系可以做成量子芯片,摸索了多年之后,发现许多体系根本不可能最终做成量子计算机,所以他们转而重点支持固态系统。

  固态系统的优点是易于集成(能够升级量子比特数目),但缺点是容错性不好,固态系统的消相干特别严重,相干时间很短,操控误差大。

  2004年以来,世界上许多著名的研究机构,如美国哈佛大学,麻省理工学院,普林斯顿大学,日本东京大学,荷兰Delft大学等都投入了很大的力量,在半导体量子点作为未来量子芯片的研究方面取得一系列重大进展。最近几年,半导体量子芯片的相干时间已经提高到200微秒。

  国际上,在自旋量子比特研究方面,2012年做到两个比特之后,一直到2015年,还是停留在四个量子点编码的两个自旋量子比特研究,实现了两比特的CNOT(受控非)。

  虽然国际同行在电荷量子比特的研究中比我们早,但是至今也只做到四个量子点编码的两个比特。我们研究组在电荷量子比特上的研究,从2010年左右制备单个量子点,然后2011年双量子点,2012~2013年实现两个量子点编码的单量子比特, 2014~2015实现四量子点编码的两个电荷量子比特,目前已研制成六个量子点编码为三个量子比特个并实现了三个比特量子门操作。已经达到国际领先水平。

 

  表1. 与国际领先研究的对比

  超导量子芯片要比半导体量子芯片发展得更快。

  近几年,科学家使用各种方法把超导的相干时间尽可能拉长,到现在也达到了100多微秒。这花了13年的基础研究,提高了5万倍。

  特别是,超导量子计算在某些指标上也表现更好,分别是:

  1. 量子退相干时间超过0.1ms,高于逻辑门操作时间1000倍以上,接近可实用化的下限。

  2. 单比特和两比特门运算的保真度分别达到99.94%和99.4%,达到量子计算理论的容错率阈值要求。

  3. 已经实现9个量子比特的可控耦合。

  4. 在量子非破坏性测量中,达到单发测量的精度

  5. 在量子存储方面,实现超高品质因子谐振腔。

  美国从90年代到现在,在基础研究阶段超导领域的突破,已经引起了企业的重视。美国所有重大的科技公司,包括微软、苹果、谷歌都在量子计算机研制领域投入了巨大的力量,以期全力争夺量子计算机这块“巨大的蛋糕”!

  其中,最典型的就是谷歌在量子计算机领域的布局。它从加州大学圣芭芭拉分校高薪引进国际上超导芯片做得最好的J. Matinis团队(23人),从事量子人工智能方面的研究。

  他们制定了一个计划:明年做到50个量子比特,定这个目标是因为,如果能做49个量子比特的话,在大数据处理等方面,就远远超过了电子计算机所有可能的能力。

整体来看,量子计算现在正处于“从晶体管向集成电路过渡阶段”。

  5

  尚未研制成功的量子计算机,

  我们仍有机会!

  很多人都问,实际可用的量子计算机究竟什么时候能做出来?

  中国和欧洲估计需要15年,美国认为会更快,美国目前的发展确实也更快。

  量子计算是量子信息领域的主流研究方向,从90年代开始,美国就在这方面花大力气研究,在硬件、软件、材料各个方面投入巨大,并且它有完整的对量子计算研究的整体策划,不仅各个指标超越世界其他国家,各个大公司的积极性也调动了起来。

  美国的量子计算机研制之路分3个阶段:第一阶段政府主导,主要做基础研究;第二阶段,企业开始投入;第三阶段,加快产出速度。

  反观中国的量子计算机发展,明显落后,软件、材料几乎没有人做,软硬件是相辅相成的,材料研究也需提早做准备。“十三五”重大研究计划,量子计算机应当“三驾马车”一起发展,硬件、软件、材料三个都要布局。

  尽管落后,毕竟量子计算机尚未研制成功,我们仍有机会,只是时间已越来越紧迫!只要能发挥我国制度的优越性,集中资源有步骤地合理布局、支持,仍然大有可为!

  文章来源:中国科普博览

责任编辑:zhengmh

科普中国APP 科普中国微信 科普中国微博
赛先生
是中国科协为深入推进科普信息化建设而塑造的全新品牌,旨在以科普内容建设为重点,充分依托现有的传播渠道和平台,使科普信息化建设与传统科普深度融合,以公众关注度作为项目精准评估的标准,提升国家科普公共服务水平。

猜你喜欢