量子计算机是终极“纸老虎”

阅读数:1673 2019 年 12 月 13 日 08:00

量子计算机是终极“纸老虎”

今年 10 月,谷歌宣布实现了量子霸权,这一成果旋即也招来了不少争议。事实上,关于量子计算的质疑声一直此起彼伏。近些年,谷歌、IBM、微软等巨头公司不断加大对该领域的投入,竞争格外激烈,看谁能抢先将量子计算变为现实。但到目前为止,量子计算这场“马拉松”,也只是前行了“一英里”,可谓前路漫漫。作为一位在量子计算领域工作过几年的从业者,本文作者 Subhash Kak 却提出了一个不甚乐观的观点:可行的量子超级计算机恐怕永远无法变成现实。

就在几个月前,谷歌公司自豪地宣布其成功证明了“量子霸权”——具体来讲,他们证明了量子计算机在执行某些特定任务时,确实拥有远超经典计算机系统的工作效率。IBM 方面迅速对此予以批评,认为经典超级计算机实际上完全能够以极快的速度完成同一项计算任务,而且稳定性要高得多。从这个角度看,我们似乎有必要对谷歌给出的结论保持怀疑态度。

这也早已不是量子计算第一次遭到质疑。过去 12 个月以来,法国蒙彼利埃学院理论物理学家 Michel Dyakonov 就通过 IEEE Spectrum(电子与 PC 工程顶级期刊)发表文章,通过一系列技术性陈述向人们证明,可行的量子超级计算机恐怕永远无法变成现实。

那么,我们到底该如何看待这场关于量子计算的争论?

作为在量子计算领域工作过几年的从业者,我个人认为,由于随机错误总会不可避免地存在,真正实用的量子计算系统恐怕永远不会出现。

量子计算机是什么?

要回答这个问题,我们首先需要了解量子计算机系统的工作原理,至少意识到其与经典计算机系统存在本质上的区别。

经典 PC 设备用 0 和 1 两个数位表示各类知识,而这些数值一般由电路中不同位置处的不同电压决定。相比之下,量子 PC 中负责实现处理能力的部分通常被称为量子比特。我们可以将量子比特想象成具有振幅及剖面的波。

量子比特具有一系列特殊的性质:它们以叠加状态存在,在同一时间点上同时表现为 0 与 1。另外,即使两个量子比特之间相距很远,也有可能相互保持纠缠,从而共享某种属性。这些都是经典物理学从未考虑过的情况。最后,当实验者与量子态交互时,叠加态将立即消失。

由于叠加态的存在,具有 100 量子比特的量子 PC 可以同时表示 2100 种可能性组合。对于某些特定问题,我们可以利用这种指数级别的并行性实现惊人的处理效率优势。例如,在量子计算设备上,我们有望以远低于当前水平的时耗破解某些代码。

此外,量子计算当中还包含一类相对狭义的策略,被称为“量子退火“——专门用来加快优化型问题。D-Wave Technoogies 这家来自加拿大的企业已经构建起利用量子比特实现优化目标的可行方法,但也有批评家认为这些方法的效率并不见得比经典计算机系统强。

无论如何,各大企业与国家都在量子计算领域砸下大量资金。中国已经开发了一套全新的量子分析设施,成本高达 100 亿美元;欧盟则制定一项总价 10 亿欧元(约合 11 亿美元)的量子研究计划。至于美国方面,根据《全国量子倡议法案》,将投入 12 亿美元在未来五年之内同全体国民宣传量子数据科学知识。

对大部分国家来说,研究量子计算的主要动机,在于破解现有加密算法——如果能够高效完成破解,那么各国将掌握几乎无限的情报收益。但是,要真正实现这种破解能力,还需要物理基础再来一波快速发展。

包括英特尔、微软、谷歌以及 IBM 在内的诸多企业正在努力构建量子计算机系统。他们正在尝试复制经典计算机系统的电路模型。然而,目前的实验方法只能构建起低于 100 量子比特的系统。相比之下,为了真正具备实用性,设备的量子比特数量可能至少要达到数百这一水平。

噪声与纠错

量子算法目前已经初露端倪,但在具体实现方面还存在不少艰巨的工程技术挑战。

一套计算机系统要想正确运行,最基本的要求就是处理掉一切小型随机错误。在量子 PC 当中,这种错误主要来自电路组件以及量子比特同周遭环境间的非预期相互作用。受到这些原因的影响,量子比特很有可能在几分之一秒内快速失去相干性。一旦退相干,即代表丧失计算能力,因此计算过程必须在更短的时间内完成。如果无法对自身系统中不可避免的随机错误进行纠正,整体计算结果也有可能完全无效。

在经典计算机系统当中,较小的噪声主要由阈值机制负责纠正,整个过程有点像是数位舍入的过程。以此为基础,我们可以确定在整数的传递范围内,误差必然小于 0.5。例如,假设真实值为 3.45,那么最终取值则为 3。

我们还可以通过引入冗余来纠正其他一些错误。因此,如果将 0 和 1 分别发送为 000 和 111,则整个传输过程中最多只能纠正一项数位错误:获取的 001 可以解释为 0,获取的 101 则可解释为 1。

量子纠错码是对经典纠错码的一种概括,但也包含不少实质性的变化。首先,未知的量子比特无法被复制为冗余以充当纠错方法。此外,在执行纠错编码之前已经传入内部的错误,也将无法得到纠正。

量子密码学

噪声问题在量子计算机系统的具体实施层面是个大麻烦,但在量子密码学层面却颇具意义。在密码学领域,研究人员专注于处理单一量子比特,这是因为单个量子比特能够在相当长的一段时间中与周遭环境保持距离。利用量子密码学技术,两位客户之间可以交换大量数字(通常被称为密钥),并以此为基础安全地完成知识交换,同时确保无人破解整个交换系统。这样的信息传递方式能够实现卫星与海军舰艇之间的安全通信。但需要强调的是,在密钥交换完成后,系统使用的具体加密算法仍然属于经典算法(而非量子算法)。从这个角度看,理论上量子加密似乎也不比经典策略强多少。

量子密码学已经在一定程度上在高价值银行交易当中实现商用。但是,由于必须利用经典协议对事件进行身份验证,而且其序列稳定性甚至不及其中最脆弱的超链接部分,因此这套方案与原有方法并没有太大的不同。相比之下,银行目前广泛使用的经典身份验证流程,其最大短板则在于流程的整体安全性较差。

量子密码学专家不妨将关注重点转移到量子信息传输领域,通过目前的事实来看,量子传输在安全性方面确实要比现有密码学策略高得多。

商业规模的量子计算挑战

尽管量子密码学有望解决量子传输难题,但我仍然怀疑这一切对于大家期待的广义量子计算到底有没有作用。纠错是通用型 PC 的核心所在,同时也是现有量子计算机系统面临的主要挑战。至少就个人看来,我很难相信会出现商业规模的量子计算解决方案。

纠错算法是量子计算机实际大规模运行的根本前提,在宣布实现“量子霸权”时,谷歌表示,公司正在努力实现这个里程碑,并将在未来对现有硬件进行改进以实现该算法的日常运行。除了纠错,量子比特质量、量子比特控制、线路过于复杂等都是量子计算全面实现路上的待解决的重大挑战。

谷歌所宣称的“实现量子霸权”,很容易给人带来错误印象,即以为量子计算机距离大规模实际应用已经很近。事实上还有很长的一段路要走。有质疑者认为,此次量子霸权的论证并没有实用性意义。IBM 认为,在量子计算机上实现实际解决方案的唯一途径是继续构建并推广更强大的可编程量子计算系统。一直以来,IBM 一直在围绕商用量子计算机方面展开研究,今年,IBM 表示计划在未来三到五年内将量子计算机商业化。

英特尔一直将实现“量子的实用性”作为量子计算研究的终极目标,英特尔的研究中心主要在超导量子以及自旋量子两个方面,近日,英特尔发布了在硅自旋量子计算的新成果,推出了 Horse Ridge 低温控制芯片,以加速全栈量子计算系统开发。英特尔认为,至少还需要十年的时间才有可能实现量子计算的商用。

到目前为止,量子计算这场“马拉松”,也只是前行了“一英里”…

原文链接:

https://nationalinterest.org/blog/buzz/quantum-computers-are-ultimate-paper-tiger-101682

评论

发布