量子计算领域迎来重要突破:哈佛大学研究团队近日宣布,成功开发出一套可将量子纠错错误率降至关键阈值以下的系统,相关成果已发表于国际顶级学术期刊《自然》。这一进展被学界视为迈向实用化量子计算的关键一步,为构建大规模容错量子计算机奠定了科学基础。
该研究由哈佛大学与麻省理工学院联合主导,团队成员来自哈佛-麻省理工实验室孵化的初创公司QuEra Computing、马里兰大学联合量子研究所及美国国家标准与技术研究院等机构。研究团队构建了一个包含448个原子量子比特的"容错"系统,通过物理纠缠、逻辑纠缠、逻辑魔术和熵移除等核心机制,结合量子隐形传态技术,实现了无需物理接触的量子态传输与错误纠正。
论文主要作者、哈佛量子科学与工程项目联合主任米哈伊尔·卢金教授指出:"我们首次在一个集成架构中整合了可扩展容错量子计算所需的所有关键要素。这些实验代表了当前任何量子平台最先进的成果,为构建实用化大规模量子计算机提供了科学依据。"研究团队采用中性原子量子比特技术,利用无电荷的铷原子在激光作用下调整电子排布,将其编码为量子比特。这种技术路径与谷歌等团队探索的超导体系形成互补,全球量子计算竞争格局因此更加多元。
量子计算与传统计算的本质差异在于运算单元:经典计算机使用比特,而量子计算机依赖量子比特。得益于量子纠缠特性,量子比特数量增加将带来指数级算力提升——理论上,300个量子比特的信息容量已超过已知宇宙粒子总数。这种潜力使量子计算有望在药物开发、密码学、人工智能、金融建模等领域引发革命性突破。然而,量子比特极易因环境干扰失去量子态,导致错误率居高不下,因此纠错能力成为制约量子计算发展的核心瓶颈。
研究团队通过构建包含数十层纠错的复杂量子电路,成功将错误率压制到关键阈值以下。这意味着新增量子比特将进一步降低系统错误率,而非引发更多错误。论文第一作者、现任加州理工学院助理教授的多勒夫·布鲁夫斯坦解释:"虽然构建百万量子比特级计算机仍面临诸多技术挑战,但这是首次出现概念上可扩展的架构。我们已清晰看到构建容错量子计算机的可行性路径。"
哈佛大学物理学博士生亚历山德拉·盖姆参与设计了实验系统,她强调:"研究重点在于理解规模化深度电路计算的关键机制。通过优化系统架构,我们能够剔除冗余组件、减少资源消耗,加速推进实用化进程。"该团队今年9月曾在《自然》发表另一项成果,展示了一个包含3000余个量子比特的系统,该系统可连续运行两小时以上,成功解决了原子流失等技术难题。
谷歌量子AI团队工程副总裁哈特穆特·内文评价称,在各大技术路线激烈竞争的背景下,这项研究"代表着向共同目标迈出的重要一步"。随着纠错技术、量子比特规模与系统稳定性的同步提升,卢金教授认为构建量子计算机的核心要素正在逐步完备:"我们怀揣数十年的梦想,如今首次真正触手可及。"