2026量子计算深度观察:从费曼构想到悟空180,纠错突破开启实用倒计时
量子计算的种子于1981年由费曼播下——“用自然本身计算自然”的理念,促使用量子系统模拟量子现象。如今,2026年的全球量子赛道已呈三足鼎立:Google凭借105量子比特的Willow芯片首次实现纠错阈值突破;IBM以成熟的Qiskit生态与模块化架构持续领跑;而中国本源量子推出的悟空180,以单芯片180计算比特的规模成为当前超导路线的新坐标。量子与人工智能正展开双向赋能,但业界普遍认为,距离实用的容错量子计算仍需要五到十年的跋涉。
1981
费曼提出量子模拟构想
180
悟空180计算比特
105
Google Willow量子比特

2026年5月9日,中国本源量子向全球正式开放第四代超导量子计算机——起源悟空180,它在单一芯片上集成了180个计算量子比特和251个耦合比特。同一时间,Google Quantum AI正沿着量子纠错路线图步步推进,而IBM的Heron R3已在云端默默运行了数月。量子计算早已脱离实验室的奇趣实验,演变为一个可交付、可编程、多方竞逐的技术新战场。
从费曼之问出发
1981年,物理学家理查德·费曼在麻省理工学院的演讲中抛出一个直指本质的问题:经典计算机模拟量子系统的复杂性会随粒子数呈指数爆炸,为何不反过来让量子系统自己承担计算任务?这一直觉奠定了量子计算的逻辑起点。四年后,戴维·多伊奇将通用量子图灵机的概念形式化,理论证明了量子计算能够超越经典图灵机。
真正的爆发点在1994年。彼得·肖尔提出量子质因数分解算法,展示了指数级的加速能力,直接威胁到RSA加密的安全性——在密码学界无异于投下一枚深水炸弹。1996年,洛夫·格罗弗的搜索算法带来了二次加速,虽不如肖尔算法那么轰动,却拥有更广泛的适用性。至此,量子计算的理论支柱已经笔直地立起:肖尔算法揭示了颠覆性的潜能,格罗弗算法则展现了通用性的一面。
然而硬件层面,物理学家们整整跋涉了七年。1998年,IBM与斯坦福的联合团队借助核磁共振技术,首次搭建出3量子比特系统。2001年,同一团队在7量子比特系统上运行了肖尔算法,成功分解了数字15——尽管只是“3×5”,却无可辩驳地证明理论可以落脚于现实。
三强争霸:量子巨头十年竞速
2010年代是量子计算从学术圈迈向工业界的分水岭。2016年,IBM率先将量子处理器搬上云端,让全球用户能通过互联网编写量子程序。2019年,Google应用53量子比特的Sycamore芯片完成随机电路采样任务,高调宣示“量子优越性”——尽管IBM马上公开质疑,这一事件仍然将量子计算推入了大众视野。
自此,三条技术路径并行展开:
-
Google:主打纠错突破。2024年12月发布的Willow芯片(105量子比特)首次跨越“越纠越少”的阈值,这是量子纠错研究三十年来最耀眼的实验进展。2025年10月,Google又公布Quantum Echoes实验,以65量子比特在特定任务上的速度比经典超算快13000倍,取得“可验证量子优势”。但到了2026年初,CEO皮查伊将实用量子计算的时间表重新调回到“5至10年”。
-
IBM:以生态与模块化路线构筑护城河。从2016年的5量子比特一路扩展到2023年Condor的1121个物理比特,IBM在规模上始终领跑。不过更值得关注的是Heron系列(2023年133比特→2024年156比特→2025年R3),它在门保真度与可编程性上不断精进。Qiskit生态仍是业界最完备的量子编程框架,而IBM Quantum System Two的模块化架构也为多芯片互联扫清了道路。
-
中国:战略核心是全栈自主可控。中国科学技术大学的光量子路线“九章”和超导路线“祖冲之”均拿出过国际级成果,但真正走向商业交付的是本源量子的悟空系列:从2024年的72比特到2026年的180比特,两年间超导量子比特规模翻番不止,且实现了芯片、测控、制冷设备到操作系统的全链条国产化,在当前地缘环境下尤具战略分量。
悟空180:中国超导量子的新坐标
悟空180的核心参数在超导路线中稳居第一梯队:单比特门保真度99.9%、双比特门99%、读取保真度99%,T1相干时间约40微秒。与IBM Heron R3(156比特)和Google Willow(105比特)相比,悟空180在单芯片计算量子比特数量上领先,但在纠错能力与软件生态方面仍存在差距。
关键对比:超导量子计算路线,2026年5月
| 系统 | 计算比特数 | 门保真度 | 架构特色 | 生态/平台 |
|---|---|---|---|---|
| 悟空180 | 180 | 单门99.9%,双门99% | 单芯片,251耦合比特 | 全球云开放 |
| IBM Heron R3 | 156 | 双门错误率~0.1% | 模块化多芯片 | Qiskit生态 |
| Google Willow | 105 | 纠错阈值突破 | 量子优势演示 | 路线图至2029年 |
数据来源:各公司官网及《自然》论文,2026年5月公开信息
值得注意的是,悟空180额外加入了251个耦合比特,专门用于精确调控量子比特间的相互作用,这很可能是双比特门保真度达到99%的关键工程决策。这与IBM采用的可调耦合器思路一脉相承,但实现路径上选择了单芯片高密度集成。
非超导路线同样紧追不舍。Quantinuum的离子阱处理器H2以56个全连通量子比特实现了业界最高的>99.9%门保真度,IonQ则规划向256量子比特迈进。中性原子路线上的QuEra和Atom Computing在扩展性上更具想象力,Atom Computing早在2023年就已演示过1180物理比特的系统。
量子AI双向赋能
量子与AI的交叉点正从概念走向实操。2025年,本源量子为悟空平台嵌入了量子知识大模型Origin Brain与QPanda3 Runtime MCP,使用者只需用自然语言描述需求,就能将任务提交给量子计算机,大幅拉低了使用门槛。类似地,IBM打通了Qiskit与Watsonx AI平台,Google也在量子芯片设计中用机器学习优化门操作参数。
反过来,量子计算也承诺为AI提供算力突破。量子机器学习在特定任务上——例如量子化学中的势能面计算、金融领域的组合优化——已展现出潜在的加速优势。但需要清醒认识到,目前所有量子+AI应用都运行在含噪中等规模量子硬件上,尚未对经典AI形成压倒性优势。
要点:眼下量子与AI最务实的结合,不是替代经典机器学习,而是用量子计算去高效处理经典AI无法胜任的量子系统原生问题——比如药物分子模拟、催化剂设计、材料基态计算等。
容错计算何时到来
整个行业至今仍身处NISQ时代,尚未跨入容错量子计算的大门。Google在Willow上演示的“表面码纠错阈值以下”突破固然可喜,但那仅验证了单个逻辑量子比特的纠错效果。若要实现实用级别的容错计算,需要成百上千个逻辑量子比特协同运行,而每个逻辑比特又必须由数十至数百个物理比特共同守护。
各主流路线图给出的时间窗口惊人的一致:2027至2029年实现小规模容错演示,2030年代初期迈入初步实用阶段。Google从2019年Sycamore到2029年目标的十年路线,以及IBM将实用量子优势设定在2030年前后的2033路线图,都在印证这一判断。
判断原则
- 不神化最新进展:Willow的纠错突破确实是里程碑,但它解决的仍是“单个逻辑比特”问题,距离有用的大规模量子计算还有数个工程化台阶。
- 不低估中国速度:从72比特到180比特,只用两年半。全栈国产化的战略价值,不亚于比特数本身的跃升。
对于普通读者最实用的判断是:当下的量子计算机还无法替代你手中的笔记本电脑,但它正逐渐成为云端的一种特殊算力资源,适合特定类型的计算任务。如果从事量子化学、组合优化或密码学研究,今天就可以通过悟空云(qcloud.originqc.com.cn)或IBM Quantum平台提交任务。如果只是因为听到“量子计算将颠覆世界”而感到焦虑,不妨再从容观察五年。