量子计算:后摩尔时代计算能力提升的解决方案

文章正文
发布时间:2024-08-02 18:50

朱晓波、陆朝阳、潘建伟:量子计算——后摩尔时代计算能力提升的解决方案

2022-03-02 学习时报

【字体:大 中 小】

语音播报

2021年潘建伟团队成功研制出“九章二号”

  量子计算是基于量子力学的全新计算模式,具有原理上远超经典计算的强大并行计算能力,为人工智能、密码分析、气象预报、资源勘探、药物设计等所需的大规模计算难题提供了解决方案,并可揭示量子相变、高温超导、量子霍尔效应等复杂物理机制。

  与传统计算机使用0或者1的比特来存储信息不同,量子计算以量子比特作为信息编码和存储的基本单元。基于量子力学的叠加原理,一个量子比特可以同时处于0和1两种状态的相干叠加,即可以用于表示0和1两个数。推而广之,n个量子比特便可表示2n个数的叠加,使得一次量子操作原理上可以同时实现对2n个叠加的数进行并行运算,这相当于经典计算机进行2n次操作。因此,量子计算提供了一种从根本上实现并行计算的思路,具备极大超越经典计算机运算能力的潜力。

  类似于经典计算机,量子计算机也可以沿用图灵机的框架,通过对量子比特进行可编程的逻辑操作,执行通用的量子运算,从而实现计算能力的大幅提升,甚至是指数级的加速。一个典型的例子是1994年提出的快速质因数分解量子算法(Shor算法)。质因数分解的计算复杂度是广泛使用的RSA公钥密码系统安全性的基础。例如,如果用每秒运算万亿次的经典计算机来分解一个300位的大数,需要10万年以上;而如果利用同样运算速率、执行Shor算法的量子计算机,则只需要1秒。因此,量子计算机一旦研制成功,将对经典信息安全体系带来巨大影响。

  量子计算的发展阶段

  量子计算机的计算能力随量子比特数目呈指数增长,因此量子计算研究的核心任务是多量子比特的相干操纵。根据相干操纵量子比特的规模,国际学术界公认量子计算有如下发展阶段:

  第一个阶段是实现“量子计算优越性”,即量子计算机对特定问题的计算能力超越经典超级计算机,达到这一目标需要约50个量子比特的相干操纵。美国谷歌公司在2019年率先实现超导线路体系的“量子计算优越性”。我国则分别于2020年在光量子体系、2021年在超导线路体系实现了“量子计算优越性”。目前,我国是世界上唯一在两种物理体系达到这一里程碑的国家。

  第二个阶段是实现专用量子模拟机,即相干操纵数百个量子比特,应用于组合优化、量子化学、机器学习等特定问题,指导材料设计、药物开发等。达到该阶段需要5至10年,是当前的主要研究任务。

  第三个阶段是实现可编程通用量子计算机,即相干操纵至少数百万个量子比特,能在经典密码破解、大数据搜索、人工智能等方面发挥巨大作用。由于量子比特容易受到环境噪声的影响而出错,对于规模化的量子比特系统,通过量子纠错来保证整个系统的正确运行是必然要求,也是一段时期内面临的主要挑战。由于技术上的难度,何时实现通用量子计算机尚不明确,国际学术界一般认为还需要15年甚至更长时间。

  目前,国际上正在对各种有望实现可扩展量子计算的物理体系开展系统性研究。我国已完成了所有重要量子计算体系的研究布局,成为包括欧盟、美国在内的三个具有完整布局的国家(地区)之一。

  超导量子计算实现赶超

  目前,美国谷歌公司、IBM公司以及中国科学技术大学是全球超导量子计算研究的前三强。2019年10月,在持续重金投入量子计算10余年后,谷歌正式宣布实验证明了“量子计算优越性”。他们构建了一个包含53个超导量子比特的量子处理器,命名为“Sycamore(悬铃木)”。在随机线路取样这一特定任务上,“悬铃木”展现出远超超级计算机的计算能力。2021年5月,中国科学技术大学构建了当时国际上量子比特数目最多的62比特超导量子计算原型机“祖冲之号”,并实现了可编程的二维量子行走。在此基础上,进一步实现了66比特的“祖冲之二号”。“祖冲之二号”具备执行任意量子算法的编程能力,实现了量子随机线路取样的快速求解。根据目前已公开的最优化经典算法,“祖冲之二号”对量子随机线路取样问题的处理速度比目前最快的超级计算机快1000万倍,计算复杂度较谷歌“悬铃木”提高了100万倍。

  其他体系的量子计算研究

  离子、硅基量子点等物理体系同样具有多比特扩展和容错性的潜力,也是目前国际量子计算研究的热点方向。我国在离子体系的量子计算研究上起步较晚,目前整体上处于追赶状态,国内的优势研究单位包括清华大学、中国科学技术大学和国防科技大学等,在离子阱的制备、单离子相干保持时间、高精度量子逻辑门、多比特量子纠缠等量子计算的基本要素方面积累了大量关键技术。我国在硅基量子点的量子计算方向上与国际主要研究力量处于并跑水平。此外,由于拓扑量子计算在容错能力上的优越性,利用拓扑体系实现通用量子计算是国际上面向长远的重要研究目标。目前国内外均在为实现单个拓扑量子比特这一“0到1”的突破而努力。

  量子计算的未来发展

  在实现了“量子计算优越性”的阶段目标后,未来量子计算的发展将集中在两个方面:一是继续提升量子计算性能。为了实现容错量子计算,首要考虑的就是如何高精度地扩展量子计算系统规模。在实现量子比特扩展的时候,比特的数量和质量都极其重要,需要实验的每个环节(量子态的制备、操控和测量)都要保持高精度、低噪声,并且随着量子比特数目的增加,噪声和串扰等因素带来的错误也随之增加,这对量子体系的设计、加工和调控带来了巨大的挑战,仍需大量科学和工程的协同努力。二是探索量子计算应用。预计未来5年,量子计算有望突破上千比特,虽然暂时还无法实现容错的通用量子计算,但科学家们希望探索在带噪声的量子计算(NISQ)阶段,将量子计算应用于机器学习、量子化学等领域,形成近期应用。


  2021年潘建伟团队成功研制出“九章二号”
  量子计算是基于量子力学的全新计算模式,具有原理上远超经典计算的强大并行计算能力,为人工智能、密码分析、气象预报、资源勘探、药物设计等所需的大规模计算难题提供了解决方案,并可揭示量子相变、高温超导、量子霍尔效应等复杂物理机制。
  与传统计算机使用0或者1的比特来存储信息不同,量子计算以量子比特作为信息编码和存储的基本单元。基于量子力学的叠加原理,一个量子比特可以同时处于0和1两种状态的相干叠加,即可以用于表示0和1两个数。推而广之,n个量子比特便可表示2n个数的叠加,使得一次量子操作原理上可以同时实现对2n个叠加的数进行并行运算,这相当于经典计算机进行2n次操作。因此,量子计算提供了一种从根本上实现并行计算的思路,具备极大超越经典计算机运算能力的潜力。
  类似于经典计算机,量子计算机也可以沿用图灵机的框架,通过对量子比特进行可编程的逻辑操作,执行通用的量子运算,从而实现计算能力的大幅提升,甚至是指数级的加速。一个典型的例子是1994年提出的快速质因数分解量子算法(Shor算法)。质因数分解的计算复杂度是广泛使用的RSA公钥密码系统安全性的基础。例如,如果用每秒运算万亿次的经典计算机来分解一个300位的大数,需要10万年以上;而如果利用同样运算速率、执行Shor算法的量子计算机,则只需要1秒。因此,量子计算机一旦研制成功,将对经典信息安全体系带来巨大影响。
  量子计算的发展阶段
  量子计算机的计算能力随量子比特数目呈指数增长,因此量子计算研究的核心任务是多量子比特的相干操纵。根据相干操纵量子比特的规模,国际学术界公认量子计算有如下发展阶段:
  第一个阶段是实现“量子计算优越性”,即量子计算机对特定问题的计算能力超越经典超级计算机,达到这一目标需要约50个量子比特的相干操纵。美国谷歌公司在2019年率先实现超导线路体系的“量子计算优越性”。我国则分别于2020年在光量子体系、2021年在超导线路体系实现了“量子计算优越性”。目前,我国是世界上唯一在两种物理体系达到这一里程碑的国家。
  第二个阶段是实现专用量子模拟机,即相干操纵数百个量子比特,应用于组合优化、量子化学、机器学习等特定问题,指导材料设计、药物开发等。达到该阶段需要5至10年,是当前的主要研究任务。
  第三个阶段是实现可编程通用量子计算机,即相干操纵至少数百万个量子比特,能在经典密码破解、大数据搜索、人工智能等方面发挥巨大作用。由于量子比特容易受到环境噪声的影响而出错,对于规模化的量子比特系统,通过量子纠错来保证整个系统的正确运行是必然要求,也是一段时期内面临的主要挑战。由于技术上的难度,何时实现通用量子计算机尚不明确,国际学术界一般认为还需要15年甚至更长时间。
  目前,国际上正在对各种有望实现可扩展量子计算的物理体系开展系统性研究。我国已完成了所有重要量子计算体系的研究布局,成为包括欧盟、美国在内的三个具有完整布局的国家(地区)之一。
  超导量子计算实现赶超
  目前,美国谷歌公司、IBM公司以及中国科学技术大学是全球超导量子计算研究的前三强。2019年10月,在持续重金投入量子计算10余年后,谷歌正式宣布实验证明了“量子计算优越性”。他们构建了一个包含53个超导量子比特的量子处理器,命名为“Sycamore(悬铃木)”。在随机线路取样这一特定任务上,“悬铃木”展现出远超超级计算机的计算能力。2021年5月,中国科学技术大学构建了当时国际上量子比特数目最多的62比特超导量子计算原型机“祖冲之号”,并实现了可编程的二维量子行走。在此基础上,进一步实现了66比特的“祖冲之二号”。“祖冲之二号”具备执行任意量子算法的编程能力,实现了量子随机线路取样的快速求解。根据目前已公开的最优化经典算法,“祖冲之二号”对量子随机线路取样问题的处理速度比目前最快的超级计算机快1000万倍,计算复杂度较谷歌“悬铃木”提高了100万倍。
  其他体系的量子计算研究
  离子、硅基量子点等物理体系同样具有多比特扩展和容错性的潜力,也是目前国际量子计算研究的热点方向。我国在离子体系的量子计算研究上起步较晚,目前整体上处于追赶状态,国内的优势研究单位包括清华大学、中国科学技术大学和国防科技大学等,在离子阱的制备、单离子相干保持时间、高精度量子逻辑门、多比特量子纠缠等量子计算的基本要素方面积累了大量关键技术。我国在硅基量子点的量子计算方向上与国际主要研究力量处于并跑水平。此外,由于拓扑量子计算在容错能力上的优越性,利用拓扑体系实现通用量子计算是国际上面向长远的重要研究目标。目前国内外均在为实现单个拓扑量子比特这一“0到1”的突破而努力。
  量子计算的未来发展
  在实现了“量子计算优越性”的阶段目标后,未来量子计算的发展将集中在两个方面:一是继续提升量子计算性能。为了实现容错量子计算,首要考虑的就是如何高精度地扩展量子计算系统规模。在实现量子比特扩展的时候,比特的数量和质量都极其重要,需要实验的每个环节(量子态的制备、操控和测量)都要保持高精度、低噪声,并且随着量子比特数目的增加,噪声和串扰等因素带来的错误也随之增加,这对量子体系的设计、加工和调控带来了巨大的挑战,仍需大量科学和工程的协同努力。二是探索量子计算应用。预计未来5年,量子计算有望突破上千比特,虽然暂时还无法实现容错的通用量子计算,但科学家们希望探索在带噪声的量子计算(NISQ)阶段,将量子计算应用于机器学习、量子化学等领域,形成近期应用。
  

更多分享

责任编辑:侯茜

扫一扫在手机打开当前页