关于ZAKER Skills 合作
钛媒体 20小时前

数据中心,液冷正成为必选项

文 | 半导体产业纵横

最近,新华三在 NAVIGATE 2026 领航者峰会上,发布高密全液冷整机 S90000,整机最高可达 576 核心。新华三提出通过创新的高密供电与全液冷散热范式,可将数据中心 PUE 降至 1.05 以下。

无独有偶,2026 年 3 月的 GTC 大会,英伟达也明确 Vera Rubin NVL72 为首个 100% 全液冷架构,GB300/Rubin、谷歌 TPU v7、Meta Minerva 等全球算力巨头已全面转向液冷方案。当单芯片功耗从 H100 的 700W 跃升至 Rubin 的 2000W 乃至 Vermeer 的 5000W 以上,传统风冷在物理层面已触及天花板。更关键的是,政策端已不给数据中心留下 " 不液冷 " 的退路。液冷不再是 " 节能可选项 ",而是算力部署与法规合规的双重 " 必选项 "。

为什么必须要液冷?

液冷的全面普及,是技术、商业、政策等多重合力共同推动的必然结果。

芯片功耗的指数级飙升是液冷产业化的根本原因。英伟达单芯片 TDP 从 H100 的 700W 攀升至 B200 的 1000W 以上,再到 Rubin 的 2000W 及后续平台的 5000W+;谷歌 TPU v7 达到 980W,v8P 突破 1500W。当单机柜功率密度突破 60kW 甚至向 130kW 迈进时,风冷系统的散热极限与 PUE 劣化已不可逆转。液冷系统通过减少甚至取代高能耗的风扇群,并利用高温液体制冷实现自然冷却,可将数据中心 PUE 显著降低至 1.05-1.1 区间。

除了物理散热极限的硬约束,液冷更是保障 AI 训练任务连续性的生命线。大模型训练通常需要数千张 GPU 长时间(数周至数月)不间断运行。风冷存在局部热点风险,温度波动会导致训练任务中断、checkpoint 回滚,网络同步延迟增加,整体集群效率下降等问题。液冷能提供更均匀、更稳定的温度环境,芯片可在更低结温下工作,故障率显著降低。对于万卡集群而言,任何非计划停机都意味着数百万美元的损失,稳定性是第一优先级。

在土地与电力资源日益稀缺的今天,液冷带来的空间密度优势同样至关重要。液冷允许在更小的物理空间内部署更多算力。同样 1MW 电力,风冷可能需要数百个机柜及大面积空调机房。液冷可将机柜数量压缩 50%-70%,大幅提升单位面积算力产出(FLOPS/m )。这在一线城市或枢纽节点(土地、电力指标稀缺)尤为关键。

如果说技术与商业需求是液冷发展的内在动力,那么日益严苛的政策法规则彻底关闭了风冷的退路。工业和信息化部于 2021 年 7 月印发《新型数据中心发展三年行动计划 ( 2021-2023 年 ) 》,明确到 2023 年底,新建大型及以上数据中心 PUE 降低到 1.3 以下,东数西算枢纽节点及寒冷地区力争降低到 1.25 以下。发改委 2021 年 11 月印发《贯彻落实碳达峰碳中和目标要求推动数据中心和 5G 等新型基础设施绿色高质量发展实施方案》, 进一步明确 " 到 2025 年,新建大型、超大型数据中心 PUE 降到 1.3 以下,国家枢纽节点降至 1.25 以下 "。" 东数西算 " 工程八大枢纽节点,要求东部地区 PUE 目标不超过 1.25,西部地区不超过 1.2,能效指标更加严格。今年,四部门联合印发《促进人工智能与能源双向赋能行动方案》,明确:新建大型 AI 数据中心 100% 采用液冷散热,2028 年前存量风冷全部改造,液冷渗透率成算力基地审批硬指标。

目前,全国绝大部分省份已出台配套的 PUE 管控与奖惩措施。北京自 2026 年起对 PUE 超过 1.35 的数据中心征收差别电价,超限定值一倍以内加价 0.2 元 / 度,一倍以上加价 0.5 元 / 度;上海将新建数据中心 PUE 严控在 1.25 以内,智算中心以 1.25 为硬门槛;四川天府集群对 PUE 低于 1.25 的新建项目一次性奖补 2000 万元,低于 1.15 则奖补 3000 万元。天津要求大型新建数据中心 PUE ≤ 1.3,中小型≤ 1.5;纳入京津冀枢纽节点的项目需≤ 1.25,2026 年底前,所有 PUE>1.5 的存量项目必须完成改造,目标降至 1.4 以下,否则限制扩容。

一言以蔽之,智算中心必须液冷,不是因为液冷 " 更好 ",而是因为风冷在物理层面已无法支撑当前及未来的 AI 算力密度。液冷同时解决了散热极限、能耗合规、空间效率、运行稳定等痛点,是智算中心从 " 能用 " 走向 " 好用且可持续 " 的唯一路径。

液冷的三条技术路线

当前液冷市场呈现冷板式、浸没式、喷淋式三条技术路线并行发展的格局。

冷板式液冷是指冷却液流经贴合芯片的冷板完成热捕获,对现有服务器架构改动最小,是目前成熟度最高、应用最广泛的方案,市场占比约为 65%。2025 年 11 月,新华三联合英特尔、英维克、忆联发布 H3C UniServer R4900 G7 全域冷板式液冷服务器,这是业界首款基于双路 Intel Birch Stream AP 架构实现全域冷板覆盖的服务器。

在冷板液冷系统中,液冷板成本占比 32% 居首,快接头以 28% 紧随其后,CDU 成本占 25% 位列第三,三大核心部件合计占系统成本 85%。随着微通道、泵驱两相冷板技术升级,其解热能力已突破 2500W,PUE 可降至 1.10 以下,是 2026 年产业化放量的绝对主力。

浸没式液冷将服务器完全浸没在冷却液中完成热捕获,散热效率更高,市场占比约 34%,分为单相与两相两种路线。单相技术中,冷却液保持液态循环,通过显热(温度升高)带走热量;两相则是冷却液在芯片表面沸腾汽化,通过潜热(相变)带走热量,蒸汽上升后冷凝回流。单相路线因系统简单、成本可控,目前在大规模智算中心(如阿里云、字节跳动等)的部署占比更高。两相路线因散热极限更高,理论上更适合超高功率密度芯片(如未来单芯片 1000W+),但受限于冷却液成本和工程密封难度,商业化规模相对较小。

中国电信试点显示,浸没式可使核心温度较风冷降低 35%,PUE 最低可达 1.1。曙光数创发布的兆瓦级相变浸没液冷整机柜 C8000 V3.0,单机柜功率超 900kW,散热能力达传统方案的 3-5 倍,散热能力超过 200W/cm 。采用自研国产冷媒,可实现全年自然冷却。并首次规模化应用金刚石铜导热材料,导热率提升 80%,助力芯片性能提升 10%。

喷淋式液冷作为第三条路线,市场占比目前仅约 1%,却展现出独特的精准散热价值。该技术通过冷却液定向喷洒服务器具体发热位置实现热捕获,工信部《国家工业和信息化领域节能降碳技术装备推荐目录(2025 年版)》已将 " 芯片级精准喷淋液冷技术 " 列入数据中心节能降碳技术,可使 PUE 低至 1.10。

中国长城推出了国内首台国产化喷淋式液冷服务器,填补技术空白;广东合一新材料研究院的芯片级喷淋技术,通过自主流道设计将 PUE 控制在 1.1 以下,特别适用于边缘计算等空间受限、热源分散的场景。

尽管短期内难以撼动冷板式的主流地位,但喷淋式在边缘 AI、通信基站等碎片化场景中,正成为冷板式与浸没式之外的重要补充。

目前,液冷产业的美国市场由少数云巨头(微软、谷歌、Meta、亚马逊)主导,集中建设 500MW-1GW 级超级 AI 工厂,以英伟达整柜生态为核心,液冷方案高度统一,标准化推进迅速,供应链呈现 " 一级供应商直供 " 的集中化特征,为中国厂商打开了直接切入海外体系的窗口。

中国则在国家工程引导下构建全国智算中心网络,依托多家国产 GPU 与液冷厂商,呈现 " 多点布局、生态多元 " 的特征。

从内蒙古枢纽节点到四川天府集群,从新华三的全域液冷到浪潮信息的亚洲最大液冷研发基地,中国液冷产业在百花齐放中快速迭代。这种 " 多元网络 " 模式虽然面临标准统一与互操作性的挑战,但也赋予了产业链更强的韧性和迭代速度。

产业化深水区的四座 " 大山 "

尽管 2026 年液冷产业化高歌猛进,但背后仍横亘着四座 " 大山 "。

首先是标准缺失。液冷接口、冷却液配方、管路协议尚未完全统一,UQD/MQD 快拆接头的生态兼容性直接影响部署效率。

其次是漏液风险与运维体系重建。液冷系统对数据中心运维提出全新要求,从 " 怕停电 " 到 " 怕漏水 ",保险、运维、监测体系需同步升级。

第三是存量改造成本。对于已运行的风冷数据中心,向液冷转型涉及机房承重、层高、防水等结构性改造,短期内 " 风冷 + 液冷 " 的混合架构将长期存在。

最后是产能与认证壁垒。从 " 示范供应商 " 到 " 量产供应商 " 需跨越产能准备、成本控制、产品一致性三重门槛,海外大客户的认证周期较长,国内厂商需在 2026 年这一窗口期内完成从 " 能造 " 到 " 敢用 " 的跨越。而四部门《节能装备高质量发展实施方案(2026 — 2028 年)》已提出,到 2028 年信息通信领域新增服务器中达到能效 2 级及以上的设备占比需超过 80%,这为液冷产业设定了更为长远的技术迭代坐标。

AI 工厂时代的 " 水电煤 " 基础设施

2026 年液冷产业化的本质,是散热技术从 " 配套部件 " 升级为 " 算力底座 "。当英伟达、谷歌以 " 只做液冷 " 定义下一代 AI 芯片的部署标准,当多个省级行政区以 PUE 红线倒逼绿色转型,当新华三等国产厂商以 " 全域液冷 " 实现从部件到系统的跨越,液冷已不再是数据中心的 " 可选项 ",而是支撑 AI 工厂运转的 " 水电煤 " 基础设施。

未来智算中心的竞争,不仅是 GPU 性能的比拼,更是 " 每瓦 token 产出效率 " 的能效博弈。随着 2026 年液冷渗透率突破 37% 并向 2027 年 50% 的临界点迈进,液冷将像当年的光模块一样,从 " 小众配件 " 成长为千亿级核心赛道。在这场散热革命中,掌握冷板、快接头、CDU 等核心部件工艺,并能提供整柜系统解决方案的国产厂商,将成为 AI 算力基建的最大受益者。2026 年,液冷产业化的故事,才刚刚开始。

相关标签

觉得文章不错,微信扫描分享好友

扫码分享

企业资讯

查看更多内容