在人类探索计算极限的漫长征途中,一场静默却深刻的革命正在悄然酝酿。就在数年前,学界普遍认为,真正能破解复杂化学反应、革新材料科学乃至颠覆现代加密体系的“实用容错量子计算机”,仍需等待数十年之久。然而,随着技术突飞猛进,这一曾经遥不可及的梦想,正加速向我们走来。
《自然》杂志网站报道指出,近年来,全球多个顶尖团队宣布在量子纠错、门操作保真度与系统集成等方面取得决定性进展。越来越多科学家开始相信:百万比特规模容错量子计算机将于2035年面世。
大规模容错证实可行
量子计算机依托的“量子比特”除了可为0或1外,还可同时处于0与1的叠加态,并通过纠缠实现指数级并行运算。但量子态极端脆弱,环境噪声、热扰动甚至测量行为本身都会导致信息迅速退相干。更棘手的是,任何对量子比特的操作都可能引入错误。若不加以纠正,这些误差将在计算过程中不断累积,最终使结果毫无意义。
于是,“容错量子计算”成为核心命题。早在上世纪90年代,以色列科学家多丽特·阿哈罗诺夫等人便提出:只要单次操作的错误率低于某一阈值,就可通过重复应用量子纠错技术,将整体错误率无限压缩。
近年来,4个独立研究团队证实他们构建的量子系统,基础错误率已跨越这一关键阈值。谷歌量子人工智能实验室与中国科技大学利用超导电路中电子的集体态编码量子信息;量子连续体公司使用的是电磁阱内单个离子内电子的磁取向;量子时代公司则借助光镊捕获中性原子,通过其排列表示信息。这意味着,大规模容错计算不再是纸上谈兵,而是物理上可实现的目标。
这些团队共同采用并改进了一种核心技术:量子纠错。其基本思想是,将一个逻辑量子比特承载的信息分散编码到多个物理量子比特内。当部分物理量子比特出错时,系统可识别并修复错误。
让纠错变得足够高效
纠错原理已被验证,下一个真正的挑战接踵而至:如何让纠错变得足够高效?
目前主流估算显示,一个逻辑量子比特往往需要上千个物理量子比特支撑,即所谓“1000∶1”的冗余比例。然而,当今最大量子处理器也不过数千比特规模。若要运行大整数因式分解等标志性任务,早期估计甚至需要数十亿比特,这显然远超当前工程能力。
转机出现在算法与架构创新中。近年来,研究人员发现,通过优化量子门序列的组织方式,可显著减少资源消耗。2024年,谷歌科学家克雷格·吉德尼提出一种新型三维拓扑编排方法,将因式分解大数所需的量子比特数从2000万个锐减至100万个,降幅达两个数量级。
与此同时,纠错编码本身也在进化。IBM研发的新一代表面码,有望将冗余比压缩至100∶1;量子时代公司也凭借其中性原子平台的独特优势——量子比特可自由移动并按需纠缠,瞄准同一目标。
在量子门保真度上,一些研究团队也取得了显著突破。
2025年6月,英国牛津大学莫莉·史密斯团队报告了高达99.999985%的单量子比特门保真度,较此前纪录提升10倍。10月,牛津离子公司宣布,其双量子比特门操作保真度达到99.99%;以色列量子晶体管公司也于12月宣布,实现99.9988%的双量子比特门保真度。
延长量子比特相干时间
如果说纠错是“软件防护”,那么延长量子比特的相干时间,则是提升“硬件耐力”的关键。
美国普林斯顿大学团队去年在《自然》发表论文,宣布通过纯化基底材料等一系列改进,他们将超导量子比特寿命从0.1毫秒提升至1.68毫秒。
研究人员表示,若能将寿命延长至10毫秒,纠错所需的资源开销可再降两到三倍。这意味着,用3万到5万个量子比特可完成大整数质因数分解等任务,已不再是遥不可及的目标。这一数量级,正好接近企业希望在一台单一的超低温制冷装置中容纳的量子比特规模。
传统系统中,每个量子比特需通过导线连接至室温控制器,造成布线拥堵与信号衰减。但下一代可在极低温环境下工作的电子学器件,理论上可被直接放置在制冷设备最冷的区域,并与量子芯片高度集成。谷歌透露,其最新低温平台已支持约1万个比特集成,如果这一设想成为现实,未来版本有望容纳数十万个量子比特。
几年前,如果有人提出“量子计算在十年内将迎来实用突破”,这样的说法很可能会被轻易否定。如今,这种预期正成为新常态。中国科技大学陆朝阳教授预测,到2035年前后,人们将迎来百万比特规模、完全容错、具备实用价值的量子计算机。