量子计算的起源与发展

摘要

本文从量子物理的起源开始,梳理历史的脉络,以简明扼要的方式阐述了量子计算诞生的过程。在我看来,要理解量子计算,仅仅从计算的角度出发是不够的,通过翻阅资料,我了解到了量子计算是如何从基础的量子理论一步步发展而来,这比仅仅从原理上理解量子计算给我带来了更大的启发与思考。也希望借这篇文章给那些有同样兴趣的同学一个简要的概览。

哥本哈根诠释与隐变量理论

量子物理的一个特别之处在于,虽然我们已经有非常有效可靠的方程式来描述亚原子世界的情况,但对于这些方程式描述的情况却没有清晰的认识。问题在于我们对同一种实际的情况有许多同样说得通的解释。对电子等量子实体的行为而言,有多种不同的方法可以解释量子力学方程,都可以让物理学家准确预测实验的结果。

20世纪中期,沃纳·海森堡提出了将电子看作粒子的量子理论,薛定谔提出了将电子看作波并得到了薛定谔方程,不久之后,以保罗·狄拉克为首的一些研究者证明了量子力学的这两种观点在数学上是等价的。由于物理学家已经十分了解波和波动方程的思想,薛定谔版的量子力学迅速成为最受欢迎的版本,被称为哥本哈根诠释。

哥本哈根诠释的基本特征在于,电子等量子实体可以用波来表示,用波动方程(波函数)来描述。这种波占据了大量的空间,波恩认为,波函数在空间的任意一个点都有一个值,这个数代表着在那一点发现电子的概率。在一些地方,波函数的值很大,这意味着我们在这些地方找到电子的概率会很高;在波弱的地方,相应的概率会很小。当我们寻找电子时,确实会在某个特定的地方找到电子,这像一个粒子,而不是一种波。这种现象在理论中被解释为波函数的“坍缩”,实验一结束,这个波便开始扩散到整个宇宙。波、概率和坍缩这些概念构成了哥本哈根诠释。

著名的“双孔实验”(双缝干涉实验)是哥本哈根诠释一个很好的印证。双缝干涉实验最初是一个光学实验:光从一个黑暗房间的一个小孔射进,落在一个有两条平行狭缝的纸板上,光从狭缝中射过并在纸板之后的屏幕上形成图案。图案的样子家喻户晓,是一系列明暗交替的条纹,这被解释为是波发生干涉的结果。显然,如果我们向屏幕发射的是货真价实的粒子,那么在狭缝后不可能出现干涉条纹,而只会在特定的区域发现粒子。令人惊讶的是,将双缝干涉实验的光换为电子时,结果并没有什么不同,电子束相互干涉产生了与光波类似的图样。事情并没有这么简单,当研究者通过某种方式设置电子的双缝干涉实验,以知道每个电子究竟是从哪一个狭缝穿过时,最终在屏幕上却没有看到干涉图样,仅仅得到了两个光斑。电子似乎意识到它们正受到监视,并相应地调整了它们的行为。从波函数的角度解释:通过观察狭缝,我们让波函数坍缩成了一个粒子,并影响到它的活动。这基本上可以说通,不过奇怪的是,我们只需要观察两个狭缝中的一个,整个实验的结果就会受到影响,仿佛穿过另一个狭缝的电子也知道我们在做什么。这是量子的“非定域性”的一个典型例子。这意味着在一个地点发生的事似乎会立即影响其他地方正在发生的事。非定域性是量子力学核心秘密的关键特征,也是量子计算机的一个至关重要的因素。

费曼想出了一个方法来解释这一情况,并将其延伸到用来更广泛地深入了解量子世界。计算通过双孔实验装置并自身相互干涉的概率波的行为以确定粒子最终会到达最后的那个屏幕的什么位置。可以得到哪些路径叠加在一起,以及哪些路径会彼此抵消。更加复杂的路径概率最终可能非常小,只有少数可能的、彼此非常接近的路径会相互放大。把每个路径的概率相加的这个过程被称为“路径积分法”或“历史求和法”。而路径中被放大的这些核心区域的特别之处,与所谓的“最小作用量原理”有关。费曼在最小作用量原理的基础上对量子物理学有了新的认识,在这之后将其发展成了完整的量子电动力学理论(QED)。费曼的研究给我们重要的启示是,在量子层面上,相互作用并不需要时间来穿越空间来产生相应的影响,而应该阐述为,一个粒子对另一个粒子的影响是因为它们之间发生了直接但是有所延迟的相互作用。

在双缝干涉实验给学界带来究竟如何在波的量子力学和粒子的量子力学中做出选择的困惑时,以“波粒二象性”的发现闻名的德布罗意提出了“导引波”理论,假设波和粒子同样真实存在,他认为,双缝实验中出现的现象是因为一个真实的波(被称为pilot wave)穿过实验装置,负责干涉和引导一个同样真实的粒子沿着干涉所决定的轨迹向外传播。我们无法对场进行测量,但我们可以对粒子进行测量。场对粒子的影响是系统的“隐变量”,这即是所谓的隐变量理论的雏形。

隐变量理论和哥本哈根诠释本质上是两种不同的世界观。其主要的冲突点有以下三个:

  1. 哥本哈根诠释认为波函数是对一个系统的完整描述,包含与其相关的所有信息,隐变量理论认为,波函数只是问题的一个方面,还有一些具有真实的位置和动量的粒子。
  2. 哥本哈根诠释认为,光波是主要按照薛定谔方程进行传播的,有时候会在某一点发生“坍缩”。这种坍缩的机制尚未得到满意的解释。隐变量理论认为,光波总是按照薛定谔方程进行传播,没有坍缩。
  3. 哥本哈根诠释认为,即便光波的运动是可以预知的,坍缩的过程也会给实验的结果带来概率元素,即量子力学是随机的。隐变量理论认为,一切都是可以确定的,我们无法精确预测的唯一原因在于我们无法完全了解所有的初始条件。

有趣的是,在德布罗意发表他的隐变量观点后不久。冯·诺伊曼就宣称他证明了没有隐变量理论可以准确的描述真实世界,虽然当时的学术界几乎普遍接受了他的“证明”,但之后的事实表明,这个“证明”其实是错误的。由于冯·诺依曼的证明,隐变量理论销声匿迹了很久,直到1933年的索尔维大会上,爱因斯坦首次提出了“EPR详谬”,传统的量子理论收到了严重的挑战。爱因斯坦以及他的两个合作者指出:波函数所提供的对物理实在的量子力学描述是不完备的。考虑量子力学的二粒子纠缠态$Ψ=δ(x1-x2-L)δ(p1+p2)$。测得粒子1的坐标为$x_1^0$,立即可确定粒子2的坐标为$L-x_1^0$。测得粒子1的动量为$p_1^0$,立即可确定粒子2的动量为$-p_1^0$。这表现了两个粒子的量子力学关联。进行测量时两个粒子的距离L已经很大,爱因斯坦等认为对一个粒子的测量不会对第二个粒子造成干扰,并给出一个判据:如果人们毫不干扰一个体系而能确定地预言它的一个物理量的值,则对应于这个物理量就存在物理实在性的一个元素。根据这个判据,粒子2的坐标和动量都是物理实在的元素,但量子力学认为粒子的坐标和动量不能同时具有确定值,因此它的描述是不完备的。在这之后,美国物理学家大卫·玻姆以更清晰的方式重新解释了哥本哈根诠释,并从自旋的角度重新阐述了EPR悖论,以试图解决它,他之后的工作基本上以更全面的方式重新发现了德布罗意的导引波,把原先的“不可能”的隐变量理论变成了可能。

贝尔不等式

玻姆的工作启发了彼时在欧洲核子研究中心工作的斯图尔特·贝尔。他先后完成了两篇论文:《论量子力学隐变量的问题》和《论爱因斯坦-波多尔斯基-罗森悖论》。论文指出,EPR详谬是为了支持这样的观点,即“量子力学不可能是一个完整的理论而是应该用其他变量对它加以充实。这些其他变量是为了将量子力学回归因果关系和定域性理论。”。而论文中以数学的方式阐述了定域性和实在性不可能同时存在。换句话说,如果存在一个独立于我们观察之外的真实世界,那么这个世界就是非定域性的,反之,如果坚持定域性,将不得不放弃实在性的想法并接受哥本哈根诠释设想的波函数坍缩的事实。贝尔发现,如果对玻姆版的EPR实验中粒子的自旋进行测量,使用探测器的不同方向来测量自旋,那么如果世界既是实在的也是定域的,一组的测量结果会大于另一组测量的结果。这就是贝尔不等式,如果贝尔不等式被违背了,第二组的测量结果大于第一组的测量结果,那就证明世界不存在定域实在性。

由于贝尔不等式验证条件要求颇高,一直到20世纪70年代此项工作才得以开展起来。从1972年起到世纪末的近30年间,陆续公布了不少验证贝尔不等式的典型实验,其中大多数是用孪生光子对做的,因为人们逐渐认识到利用光的偏振性作检验更好。1982年,以阿莱恩·阿斯派克特为组长的法国奥赛理论与应用光学研究所里的一群科学家第一次在精确的意义上对EPR作出检验。实验结果和量子论的预言完全符合,而相对局域隐变量理论的预测却偏离了5个标准方差。尔后,许多物理学家都重复阿斯派克特的实验,并且运用更新的手段,使实验模型越来越靠近爱因斯坦当年那个最原始的EPR设想。1998年,奥地利因斯布鲁克大学的科学家们让光子飞出相距400米,其结果偏离了局域隐变量理论预测30个标准方差。2003年,Pittman和Franson报道了产生于两个独立源的光子对于贝尔不等式的违反,等等。

这些年来,贝尔不等式已通过了各种各样的实验证伪。很多关于这些实验的不足之处都已被找到,包括“侦测漏洞”、“通讯漏洞”等等。由于科技的进步,实验也逐步的改良,更能够针对这些漏洞给予补足,但是没有任何实验能够完全地补足这些漏洞。至今,有大量实证支持贝尔不等式不成立。主流量子力学教科书将贝尔不成立视为基础物理定理。但是,没有任何物理定理能够毫无疑问的被接受;有些物理学者反驳,隐藏的假定或实验漏洞否定了理论的正确性。但是,大多数物理学者承认,有很多实验验证确定贝尔不等式已被违背。

多重宇宙

哥本哈根诠释把观察者及其意识引入了量子力学,使其与微观粒子的运动状态发生关系。但观察者和“塌缩”的解释并不十分清晰和令人信服,也受到了很多研究者的质疑。例如,塌缩是如何发生的,是在一瞬间就发生,还是要等到光子进入人们的眼睛并在视网膜上激起电脉冲信号后才开始。

那么,有没有办法绕过这所谓的“塌缩”和“观测者”,从本应研究客观规律的物理学中剔除观察者的主观成分呢? 埃弗雷特提出了一个大胆的想法:如果波函数没有“塌缩”,则它必定保持线性增加。也就是说,双缝实验中电子即使再观测后仍然处在左/右狭缝的叠加状态。埃弗雷特由此进一步提出:人们的世界也是叠加的,当电子穿过双缝后,处于叠加态的不仅仅是电子,还包括整个的世界。也就是说,当电子经过双缝后,“分裂”出了两个叠加在一起的世界,在其中的一个世界里电子穿过了左边的狭缝,而在另一个世界里,电子则通过了右边的狭缝。这样,波函数就无需“塌缩”,去随机选择左还是右,因为它表现为两个世界的叠加:生活在一个世界中的人们发现在他们那里电子通过了左边的狭缝,而在另一个世界中,人们观察到的电子则在右边。以“薛定谔的猫”来说,埃弗雷特指出两只猫都是真实的。有一只活猫,有一只死猫,但它们位于不同的世界中。问题并不在于盒子中的发射性原子是否衰变,而在于它既衰变又不衰变。当观测者向盒子里看时,整个世界分裂成它自己的两个版本。这两个版本在其余的各个方面是完全相同的。唯一的区别在于其中一个版本中,原子衰变了,猫死了;而在另一个版本中,原子没有衰变,猫还活着。前述所说的“原子衰变了,猫死了;原子没有衰变,猫还活着”这两个世界将完全相互独立平行地演变下去,就像两个平行的世界一样。量子过程造成了“两个世界”,这就是埃弗雷特的“多世界解释”。

这个解释的优点是:薛定谔方程始终成立,波函数从不塌缩,由此它简化了基本理论。然而它似乎与哥本哈根诠释自身一样包含了相同的缺陷,即测量问题,世界分裂与否取决于观测者的测量。1952年,薛定谔提出波函数是不会坍缩的,不会在叠加的状态中进行选择。通俗来讲,就薛定谔的猫的实验来讲,有两个平行的世界,一个有一只活猫的世界和一个有一只死猫的世界。不存在分裂和测量问题。知道进行实验的那一刻,两个世界都有相同的历史,但是在其中一个世界中猫是活的,另外一个世界中猫是死的。他们就像平行线,并行存在。

量子计算机

1978年,大卫·多伊奇设计了一个思想实验,其中包括这样一台计算机:如果超过一个以上的真实世界产生了干涉,这台计算机就能感受到它们的存在。这台机器可以检验多世界假说,后来他才意识到实际上这就是一台量子计算机。他指出,如果干涉发生了,量子计算机可以推断,这两种可能性在过去肯定是平行存在的,这就支持了埃雷福特的解释。不过,如果传统的解释是正确的,即波函数将会坍缩,虽然他仍然有可能会写下“我只观察到一个可能性”,但是等它看到干涉现象的时候,干涉已经结束了(即干涉不会发生)。于是就能证明埃弗雷特的解释是错误的。

1985年,多伊奇发表了一篇论文,这篇论文现在被视为寻求开发量子计算机的开始。多伊奇描述了图灵机的量子泛化,并引发了人们对量子并行性的关注。在量子计算机中处理的信息是量子位元,而不是信息的位元。量子位元的主要特点是:它不仅以状态0或状态1存在,而且以这两种状态的叠加状态存在。不过,它们还有另一个重要的属性。向其他量子实体一样,,量子位元可能会相互缠结。使用量子计算机进行计算时,指令集——程序或算法——最初通过将部分量子位元(输入寄存器)置于叠加状态来设定“问题”。如果每个量子位元被视为一个数字的一个寄存器,那么这个量子位元可以同时存储两个数字。在接下来的阶段进行的计算将信息传播至阵列中的其他量子位元(输出寄存器),而不是传播给外部世界(阻止信息过早泄露和被缠结所毁坏是制造量子计算机涉及的一个关键的实际问题)。大致来说,输入寄存器的每个组件与输出寄存器的相应组建缠结在一起,就像EPR实验中的光子一样。这个信息已经在叠加状态所代表的所有历史中,用日常的语言来说,就是在所有的平行宇宙中,被同时处理。最后,这些量子位元可以以受控的方式进行干涉。这样就可以提供来自所有这些历史的混合的信息,即一个“答案”。计算机在不同的历史(不同的宇宙)中进行不同部分的计算,并基于这些历史之间的干涉产生了一个答案。

正如大多数人所了解的,量子计算机在密码破解上有着巨大潜力。当今主流的非对称(公钥)加密算法,如RSA加密算法,大多数都是基于于大整数的因式分解或者有限域上的离散指数的计算这两个数学难题。他们的破解难度也就依赖于解决这些问题的效率。传统计算机上,要求解这两个数学难题,花费时间为指数时间(即破解时间随着公钥长度的增长以指数级增长),这在实际应用中是无法接受的。而为量子计算机量身定做的秀尔算法可以在多项式时间内(即破解时间随着公钥长度的增长以k次方的速度增长,其中k为与公钥长度无关的常数)进行整数因式分解或者离散对数计算,从而为RSA、离散对数加密算法的破解提供可能。但其它不是基于这两个数学问题的公钥加密算法,比如椭圆曲线加密算法,量子计算机还无法进行有效破解。 针对对称(私钥)加密,如AES加密算法,只能进行暴力破解,而传统计算机的破解时间为指数时间,更准确地说,是 ,其中 为密钥的长度。而量子计算机可以利用Grover算法进行更优化的暴力破解,其效率为,也就是说,量子计算机暴力破解AES-256加密的效率跟传统计算机暴力破解AES-128是一样的。 更广泛而言,Grover算法是一种量子数据库搜索算法,相比传统的算法,达到同样的效果,它的请求次数要少得多。对称加密算法的暴力破解仅仅是Grover算法的其中一个应用。
在利用EPR对进行量子通讯的实验中科学家发现,只有拥有EPR对的双方才可能完成量子信息的传递,任何第三方的窃听者都不能获得完全的量子信息,正所谓解铃还需系铃人,这样实现的量子通讯才是真正不会被破解的保密通讯。 此外量子计算机还可以用来做量子系统的模拟,人们一旦有了量子模拟计算机,就无需求解薛定谔方程或者采用蒙特卡罗方法在经典计算机上做数值计算,便可精确地研究量子体系的特征。

但量子计算机并不是魔法。像所有的工具一样,它们也有自己的局限性。按照任何与人类活动有关的时间表经典计算机无法应对的一些问题,量子计算机可以轻松解决;但是还有其他一些问题不那么容易用这种方法解决。如果量子计算机能做到的,它会做得非常出色;不过,如果超出它们的能力之外,量子计算机不比经典计算机表现得更好。目前量子计算机还不能被证明可以解决NP完全问题,这也就意味着量子计算很可能仍然有局限性,并不能高效地解决世界上的每一个问题。

量子计算机在实际构建上还有一些困难需要克服,无论是量子并行计算还是量子模拟计算,本质上都是利用了量子相干性。遗憾的是,在实际系统中量子相干性很难保持。在量子计算机中,量子比特不是一个孤立的系统,它会与外部环境发生相互作用,导致量子相干性的衰减,即消相干(也称“退相干”)。因此,要使量子计算成为现实,一个核心问题就是克服消相干。而量子编码是迄今发现的克服消相干最有效的方法。主要的几种量子编码方案是:量子纠错码、量子避错码和量子防错码。量子纠错码是经典纠错码的类比,是目前研究的最多的一类编码,其优点为适用范围广,缺点是效率不高。

结语

迄今为止,世界上还没有真正意义上的量子计算机。但是,世界各地的许多实验室正在以巨大的热情追寻着这个梦想。如何实现量子计算,方案并不少,问题是在实验上实现对微观量子态的操纵确实太困难了。已经提出的方案主要利用了原子和光腔相互作用、冷阱束缚离子、电子或核自旋共振、量子点操纵、超导量子干涉等。还很难说哪一种方案更有前景,只是量子点方案和超导约瑟夫森结方案更适合集成化和小型化。将来也许现有的方案都派不上用场,最后脱颖而出的是一种全新的设计,而这种新设计又是以某种新材料为基础,就像半导体材料对于电子计算机一样。研究量子计算机的目的不是要用它来取代现有的计算机。量子计算机使计算的概念焕然一新,这是量子计算机与其他计算机如光计算机和生物计算机等的不同之处。量子计算机的作用远不止是解决一些经典计算机无法解决的问题。

参考文献