
与此同时,量子计算正从一个高度专业化的研究领域,迅猛发展为可能重塑未来算力格局的战略性技术。两者之间的交叉融合—— "AI for Quantum" 与 "Quantum for AI" ——正成为学界与产业界共同探索的前沿方向。
在此背景下,量子计算与企业级 AI 的深度融合,不再是实验室中的理论推演,而是成为重构产业规则、催生万亿级市场的核心力量。这种加速迭代的趋势,正在推动全球产业进入 " 量子增强智能 " 的新纪元。
量子技术重构算力新范式
数年前,当英伟达创始人兼 CEO 黄仁勋在一次采访中简要谈及对量子计算的看法时,其言论竟在次日导致美国所有量子计算上市公司的总市值蒸发约 60%。这个常被引述的轶事,深刻反映了资本市场对新兴技术的敏感,以及当时量子计算与以 GPU 为代表的 AI 算力之间若即若离、甚至被部分视为竞争的关系。然而,时间快进至当下,故事的脚本已然翻新。在近期的英伟达 GTC 大会上,黄仁勋亲自发布了 "CUDA Quantum" 和 "NVLink for Quantum" 两款产品,其核心目标直指 " 如何将 AI 数据中心与量子计算连接起来 "。
从 " 冲击者 " 到 " 连接者 ",角色的转变揭示了一个根本性的共识:人工智能的下一波浪潮,或许不再仅仅依赖于经典计算单元(CPU/GPU)的堆叠与工艺微缩,而可能依赖于一种全新的计算范式——量子计算。正如中国科学技术大学教授、" 祖冲之号 " 量子计算总师朱晓波所言——量子计算有可能为人类提供一种硅基半导体无法提供的算力。而在他看来,人脑的工作模式本身就具有量子特性," 量子计算是人类通向 AGI 的必要条件之一。" 朱晓波断言。尤其在处理人工智能、生物制药、密码分析等领域的特定复杂问题时,量子计算有望带来指数级的加速能力。
当前,以大语言模型(LLM)为代表的 AI 发展,其核心驱动力之一被认为是 " 缩放定律 "(Scaling Law)——即模型性能随着参数量、训练数据量和计算量的增加而可预测地提升,也就是所谓的 " 大力出奇迹 "。然而,这个 " 力 " 的供给正面临经典物理的严峻挑战。根据国际半导体技术路线图(ITRS)的过往预测以及产业现实,传统硅基 CMOS 晶体管的微缩已逼近物理极限,功耗墙、存储墙、可靠性等问题的制约日益凸显。尽管先进封装、Chiplet、存算一体等技术创新仍在持续推动算力增长,但其本质仍是经典框架内的渐进式改良。
朱晓波指出:" 当我们用算力去解决问题时,如果算力只是线性或多项式级增长,而问题的难度却是指数级增加的,那么前者永远追不上后者。"AI 未来若要迈向更高级的通用人工智能(AGI),所需处理的复杂性问题(如全尺度物理世界模拟、高维组合优化、复杂因果推理)的难度很可能是指数增长的。经典算力的线性增长模式将难以为继。
量子计算的潜力在于,其算力的增长在理想情况下可与量子比特数量呈指数关联。例如,在量子机器学习(QML)的一些理论模型中,利用量子特征映射和量子内核,有可能更快地处理高维数据或发现经典机器学习难以识别的数据模式。尽管通用量子机器学习仍处于早期研究阶段,但一些特定应用已展现出前景。例如,在药物发现和材料设计中,量子计算可用于更精确地模拟分子间的相互作用(求解电子结构的薛定谔方程),这本身就是一项对经典计算机而言计算量随原子数指数增长的任务。这类模拟的突破,可以直接赋能 AI 制药和 AI 材料科学,提供更高质量的训练数据或更精确的物理模型。
另一方面,量子计算与 AI 的融合不是单方面的。AI 也可以为量子计算的发展提供技术支持。
研制量子计算机本身,尤其是当前主流的含噪声中等规模量子(NISQ)设备,极度需要先进的计算工具,而 AI 正是关键之一。量子系统极其脆弱,极易受到环境噪声的干扰。
为了进行有效的量子计算,尤其是实现容错量子计算,量子纠错(QEC)是必不可少的核心技术。量子纠错要求持续监测量子比特的状态(通过辅助比特进行 " 综合征 " 测量),并实时解码这些测量结果以推断错误发生的位置和类型,从而进行纠正。这个解码过程本身就是一个复杂的、对实时性要求极高的计算问题。
2023 年,谷歌研究团队在《自然》杂志上发表论文,详细介绍了他们如何利用深度神经网络(一种 AI 方法)来优化其超导量子处理器上的表面码纠错解码器。与传统算法相比,AI 解码器能在更短时间内获得更高精度的解码结果,从而提高了纠错的效率和容错阈值。这正是在量子计算硬件研制中,"AI for Quantum" 的一个典型范例。
此外,AI 还被用于优化量子比特的控制脉冲、校准复杂的量子门操作、以及从噪声数据中提取更纯净的量子信号等。正如朱晓波所言——也许造一台量子计算机,最终需要另一台量子计算机提供的算力,而这整个过程都离不开人工智能。
量子计算与 AI 的融合在产业层面也已开始。英伟达推出的 "CUDA Quantum" 是一个开源的混合编程模型,允许开发者在同一程序中编写经典 CPU、GPU 和量子处理单元(QPU)的代码。这为算法研究者探索混合量子 - 经典算法(如变分量子算法 VQE、量子近似优化算法 QAOA)提供了统一的工具链,而这些算法被认为是 NISQ 时代最有希望展示实用价值的途径。IBM、谷歌、亚马逊(通过 Braket 服务)、微软(Azure Quantum)等云服务商也纷纷提供了量子计算与经典 AI/ 云计算资源的集成访问。
多条技术路线齐头并进
尽管前景诱人,但通向实用化量子计算的道路布满荆棘。当前,量子计算尚未像经典计算机那样收敛于单一技术路径,多种物理体系在并行发展,各有优劣。对此,香港城市大学讲席教授、量子科学家区泽宇指出," 我们还没有找到一个像经典计算机那样‘归一’的、绝对主导的平台。" 在这场竞赛中,超导和硅基(CMOS)路线目前备受关注,而光量子等路线则面临着独特的物理挑战。
技术路线的多元化迭代,为企业级融合应用提供了差异化选择空间。超导量子计算是目前业内比较常见,技术成熟度也最高的一种方面。其利用在极低温下(通常在 10 毫开尔文左右,接近绝对零度)呈现零电阻特性的超导电路来构造人工原子。
2025 年 12 月,中国超导量子处理器 " 祖冲之 3.2 号 " 实现了 " 低于阈值、越纠越对 " 的核心目标,荷兰 Quantware 发布的 VIO-40K 架构成功突破万级比特门槛,为企业级应用提供了硬件基础。IBM 推出的 Qiskit Runtime 框架,支持 PyTorch/TensorFlow 量子扩展,已服务全球超过 120 家金融服务机构,其基于超导量子比特开发的肿瘤边缘检测算法,在北美完成临床验证,对比传统 GPU 集群节省了 72% 的初诊时间 .......
多个案例已经证实了超导很有可能是量子计算的 " 未来 "。谈及量子计算未来的技术路线,神州数码联席董事长兼 CEO 王冰峰认为,超导是目前最受瞩目,也最乐观的路线,但同时也可能是 " 过度乐观 " 的," 量子计算技术尚未收敛,超导路线虽备受瞩目且进展显著,但仍面临工程化、cooling 系统,布线、qubits 的寿命,噪音,I/O 瓶颈等相关挑战 " 王冰峰强调。
这恰恰点出了其核心矛盾:前景广阔,但工程难度极高。朱晓波教授将之比作攀登 " 珠穆朗玛峰 ",而非无法突破的 " 天花板 "。
单就超导技术发展来看,目前还存在三个挑战。
首先是极低温环境。维持毫开尔文级的极端低温需要复杂、昂贵且能耗巨大的稀释制冷机系统。这不仅限制了部署场景,也为大规模扩展带来了散热和控制的难题。
其次是量子比特性能(错误率)。当前最好的超导量子比特,单次量子门操作的错误率大约在千分之一(10^-3)量级。朱晓波教授指出,要实现有实用价值的容错量子计算,逻辑量子比特的错误率需要至少降低到百亿分之一(10^-11)甚至更低。这是多个数量级的差距。错误来源包括能量弛豫(T1)、退相位(T2)、门操作误差、读取误差等。
第三是布线、串扰与集成挑战。随着芯片上量子比特数量增至数百甚至上千,如何为每个比特引入独立的控制线和读取线,同时避免它们之间的电磁串扰,成为一个巨大的工程瓶颈。二维平面布线已近极限,向三维集成发展是趋势之一。
除了超导技术之外,硅基(CMOS)路线依托成熟产业基础成为了量子计算的 " 潜力股 "。硅基量子计算,特别是利用硅中掺杂磷原子或硅 -28 同位素中的量子点来定义量子比特,其最大优势在于与全球万亿美元规模的半导体产业生态高度兼容。而英特尔则是这一路线的坚定推动者。
相较于超导的技术路径,硅基路线的潜在优势有三点。
首先是制造可扩展性:理论上可以直接利用或略微改造现有的 CMOS 生产线进行大规模制造,这是其他路线难以比拟的成本和规模优势。其次是量子比特稳定性,硅中的自旋量子比特相干时间相对较长;第三是硅基路线更容易设想将量子比特与控制电子学(CMOS 电路)单片集成,从而简化系统复杂度。" 于半导体产业积累的硅基 CMOS 等技术,由于对现有半导体产业已有积累的利用,可能具备被低估的规模化潜力。" 王冰峰指出。
然而,王冰峰提到其关键瓶颈在于 " 栅极保真度 "。操控硅自旋量子比特通常依赖精密的微波或电脉冲,其操控速度相对超导较慢(微秒量级),且实现高保真度的双量子比特门尤为困难。目前业界领先水平正在向错误率百分之一努力,与超导路线的千分之一仍有差距。
从推动新技术商业化落地发展的视角出发,王冰峰认为,应该突破 " 建造通用量子计算机 - Quantum Computer" 的固有框架,转向关注 "Quantum Computing 来解决何种实际问题 ",尤其现在加速计算和量子计算的 Hybird 也将加速整体计算能力的发展。" 或许通用的、容错的量子计算机仍需要较长时间的技术验证和突破,但在不断探索的过程中,我们将发现更多未知方向和可能。" 王冰峰如是说。
构建未来新图景
无论哪条路线,一个核心共识是:容错量子计算是最终目标,而量子纠错是实现容错的必经之路。 目前,表面码是被研究最广泛的一种纠错方案,但它需要大量的物理量子比特来编码一个逻辑量子比特。因此,短期内突破千个、乃至百万个高性能物理量子比特的集成和控制,是各技术路线的共同竞赛焦点。
在王冰峰看来,量子计算在近期就有望在特定领域提供帮助。而这些应用中,走在最前面的就是量子化学与材料模拟。这是目前业内公认的 " 杀手级应用 " 候选。精确计算分子结构、反应路径、材料属性等,对药物研发(靶点筛选、药物设计)、新能源材料(催化剂、电池材料)、化工行业具有革命性意义。例如,2022 年,IBM 与化学公司合作,使用量子计算机模拟了氢化锂(LiH)等小分子的基态能量。虽然规模尚小,但验证了路径的可行性。波士顿咨询集团报告预测,量子计算可能在 2030 年代中期为化学和材料行业创造高达 200-500 亿美元的价值。
除此之外,在短期内,量子计算还在组合优化、量子机器学习增强、量子传感与计量等方面已经有诸如应用案例落地。而从长远角度上看,量子计算还能在密码学、人工智能、基础科学发现等方面做出贡献。
这些应用并非需要等待 " 完美 " 的通用量子计算机才能落地,而是随着量子比特数量和质量的稳步提升,通过混合量子 - 经典算法,逐步显示出其价值。王冰峰提到,业内有一种预测,到 2030 年左右,可实用的容错量子计算技术有望出现。 这里的 " 实用 " 可能首先体现在针对上述某一类问题的专用量子处理器或量子 - 经典混合系统上。
展望未来,王冰峰认为,量子计算是长周期、高投入的硬科技赛道,需要耐心资本。其投资不应仅局限于硬件公司,还应关注软件算法、量子云服务、纠错技术、专用软件开发工具、以及后量子密码安全等更广泛的生态系统环节。评估技术路线时,需深入理解其物理原理、工程瓶颈和团队的执行力,警惕过度炒作的概念。投资应伴随技术成熟度的曲线,从支持基础研发,到推动特定应用验证,再到规模化商业落地。(本文作者|张申宇,编辑丨盖虹达)