核心要点: NVIDIA 正在推动数据中心供电架构从传统交流配电向 800V 高压直流 (HVDC) 的根本性转变。这一转变将消除多达 4 个功率转换环节,使端到端供电效率提升 5% 以上,铜材用量减少 45%,TCO 降低约 30%。本文从电力电子拓扑、半导体器件、机柜架构到产业生态,全面解读这场供电革命的技术内核。
为什么数据中心供电架构必须改变?
一个直观的数字:NVIDIA Hopper (H100) 时代,单机柜功率约 40kW;到 Blackwell (GB200),这个数字跃升至 120kW;而 2027 年的 Rubin Ultra Kyber 机柜,预计将达到 600kW 至 1MW。
三年之内,机柜功率密度增长了 25 倍。
传统的交流配电体系——从市电变压器、UPS、PDU 到服务器电源——在这样的功率密度下已经力不从心。不是效率问题,而是物理极限:当 54V 母线需要承载 18,500A 电流为 1MW 机柜供电时,仅铜排就需要 200kg,整个 1GW 数据中心将消耗 200 吨铜。
数据来源:NVIDIA GTC 2025 主题演讲,NVIDIA Technical Blog
传统 AC 与 HVDC 的效率差异有多大?
要理解 HVDC 的价值,必须先看清传统交流配电链路中每一级转换的代价。
传统 AC 配电路径 (4-5 级转换)
端到端效率:约 61%(传统)至 87.5%(现代高效)。
800V HVDC 路径 (2 级转换)
端到端效率提升至 92% 以上,且消除了 UPS 和 PDU 两个完整环节。
数据来源:Eltek 白皮书, Vertiv, ACM Queue
GB200 NVL72 的 54V DC 供电架构是怎样的?
在 800V 全面铺开之前,NVIDIA 当前的 Blackwell 平台已经采用了 54V DC 机柜内供电——这是迈向 HVDC 的过渡架构。
机柜规格一览
| 参数 | 规格 |
|---|---|
| 总功率 | ~120 kW (GB200 NVL72) / ~142 kW (GB300 NVL72) |
| 机柜重量 | 1.36 吨 (3,000 磅) |
| 计算节点 | 18 x 1U,每节点 2 个 Grace-Blackwell 超级芯片 |
| 单节点功率 | 5.4-5.7 kW |
| 电源架 | 8 个,每架 6 个 5.5kW PSU (OCP ORv3 HPR) |
| 输入 | 三相 AC, 347/200-480/277 VAC |
| 输出 | 50-51 VDC, 每架最高 660A |
| PSU 效率 | 峰值接近 98%, 30-100% 负载下 ≥97.5% |
| 冗余 | N+N 配置 |
供电拓扑
电源架位于机柜顶部和底部,将三相交流电转换为 ~50-54V 直流电。一条铜母线 (bus bar) 沿机柜背部纵向延伸,将 DC 配送到每个计算和交换托盘。每个托盘上的 VRM 再将 48-54V 降压到 GPU 核心所需的 ~0.7-1.0V。
数据来源:NVIDIA DGX GB200 User Guide
54V 架构的瓶颈
这套架构在 120-142kW 下运行良好,但面对 MW 级需求时遇到了物理墙:
- 电流过大:1MW / 54V ≈ 18,500A,需要截面积惊人的铜导体
- 空间占用:供电 1MW 需要约 64U 的电源架空间,无法为计算留出余量
- 铜材消耗:单机柜约 200kg 铜排,一个 1GW 园区需要 200 吨铜
- I²R 损耗:大电流带来显著的导体发热和压降
这正是 800V HVDC 架构的设计出发点。
800V HVDC 架构如何解决这些瓶颈?
核心设计理念
800V HVDC 的技术思路清晰:提高配电电压,从而按比例降低电流。
在相同功率下,800V 相比 54V:
- 电流降至 1/15
- 铜材用量减少 45%
- 同等导体可传输 85% 更多功率
- 三线制 (POS/RTN/PE) 比交流四线制更简洁
- 相比 415V AC,同规格线缆可传输 157% 更多功率
NVIDIA Kyber 机柜架构
2025 年 GTC 上,Jensen Huang 展示了基于 800V HVDC 的 Kyber 机柜设计:
- 算力:576 个 Rubin Ultra GPU
- 供电:800V DC "Sidecar" 电源单元
- 功率:600kW - 1MW+
- 转换:仅需一级 DC-DC (800V → 12V,64:1 LLC 谐振拓扑)
- 面积:比多级转换方案减少 26% 占用
数据来源:NVIDIA Technical Blog, Schneider Electric Blog
GaN 与 SiC:哪种宽禁带半导体更适合 800V?
800V HVDC 架构对功率半导体提出了前所未有的要求。NVIDIA 在 COMPUTEX 2025 上宣布成立的 800V HVDC 供应商联盟,集结了 14 家芯片公司,核心技术路线分为两大阵营。
宽禁带半导体对比
| 参数 | 硅基 MOSFET | GaN (氮化镓) | SiC (碳化硅) |
|---|---|---|---|
| 带隙 (eV) | 1.1 | 3.4 | 3.3 |
| 击穿场强 (MV/cm) | 0.3 | 3.3 | 2.8 |
| 电子迁移率 (cm²/V·s) | 1,450 | 2,000 | 900 |
| 导热系数 (W/m·K) | 150 | 130 | 490 |
| 最佳应用电压范围 | <200V | 100-650V | 650-3,300V |
| 开关频率优势 | 基准 | 极高 (MHz级) | 高 (数百kHz) |
| 典型效率 | 94-96% | >98% | >98% |
关键器件方案
800V → 12V 机柜级 DC-DC 转换器:
| 供应商 | 技术 | 规格 | 特点 |
|---|---|---|---|
| EPC | eGaN FET | 6kW, 800V→12.5V | 高频开关,尺寸极小 |
| Power Integrations | PowiGaN | 1,250V 单开关 | 集成度高,简化设计 |
| Renesas | LLC DCX | 双向 GaN 开关 | 高达 98% 效率 |
| STMicroelectronics | SiC + GaN 混合 | 12kW 模块 | 智能手机大小的板级方案 |
| Navitas | GeneSiC SiC MOSFET | 沟槽辅助平面结构 | 高雪崩能量 |
设施级 AC → 800V DC 整流器:
采用固态变压器 (SST) 技术,使用高压 SiC 器件直接从 13.8kV 或 34.5kV 中压 AC 输出 800V DC。初级侧使用 650V GaN 晶体管的堆叠半桥配置,次级侧使用 100V GaN 晶体管。
数据来源:Electronic Design, ST Blog, Navitas, NVIDIA 800V HVDC Supplier Alliance
64:1 LLC 谐振转换器是如何工作的?
NVIDIA Kyber 机柜内的 DC-DC 转换采用 64:1 LLC 谐振拓扑,这是整个 800V 架构中技术难度最高的环节。
为什么选择 LLC 谐振?
LLC 谐振转换器由一个电感 (Lr)、一个电感 (Lm) 和一个电容 (Cr) 构成谐振网络。其核心优势在于:
- 零电压开关 (ZVS):初级侧 MOSFET 在零电压条件下导通,几乎消除开关损耗
- 零电流开关 (ZCS):次级侧整流二极管在零电流条件下关断
- 高频运行:降低变压器和电感的体积——在 800V/MW 级场景中,磁性元件的体积和重量是关键约束
- 软开关特性:大幅降低 EMI,简化滤波器设计
64:1 变比的挑战
从 800V 到 12.5V 需要 64:1 的变比,这给变压器设计带来了几个工程难题:
- 匝比优化:初级绕组匝数多、次级极少,漏感控制困难
- 趋肤效应和邻近效应:高频下铜线的有效截面积显著减小,需要利兹线或 PCB 绕组
- 热管理:高功率密度下的散热——STMicroelectronics 的方案将 12kW 转换器压缩到智能手机大小
参考:Electronic Design, Renesas LLC DCX 技术文档
哪些企业加入了 800V HVDC 生态?
NVIDIA 并非单打独斗。2025 年 COMPUTEX 上,NVIDIA 正式宣布成立 800V HVDC 供应商联盟,涵盖三个层级:
联盟成员
半导体合作伙伴 (14 家):Analog Devices、AOS、EPC、Infineon、Innoscience、MPS、Navitas、OnSemi、Power Integrations、Renesas、Richtek、ROHM、STMicroelectronics、Texas Instruments
电源组件合作伙伴 (6 家):Bizlink、Delta、Flex Power、Lead Wealth、LiteOn、Megmeet
数据中心电力系统合作伙伴 (9 家):ABB、Eaton、GE Vernova、Heron Power、Hitachi Energy、Mitsubishi Electric、Schneider Electric、Siemens、Vertiv
OCP 开放标准:Diablo 400
与 NVIDIA 联盟并行,OCP 基金会在 Google、Meta、Microsoft 的联合推动下发布了 Diablo 400 (Mount Diablo) 规范 (v0.5.2, 2025 年 5 月):
- 支持 ±400V DC (即 800V 双极) 或 800V DC 配电
- 解耦式设计:计算机柜与电源 Sidecar 机柜分离
- 可扩展:单机柜 100kW 至 1MW
- AI 加速器密度提升最高 35%(电源组件不再占据计算空间)
数据来源:NVIDIA COMPUTEX 2025, OCP Foundation, Data Center Dynamics
超大规模玩家的 HVDC 实践进展如何?
NVIDIA 不是第一个拥抱 DC 配电的——超大规模厂商已经在路上。
Google:从 48V 先驱到 ±400V DC
Google 是数据中心 DC 配电的先驱,早在 ~2010 年就开始部署 48V DC 机柜,并于 2016-2017 年将 48V 机柜设计贡献给 OCP。从 12V 到 48V 的迁移实现了 30% 的能效提升。现在,Google 正在部署 ±400V DC (等效 800V 双极),支持单机柜最高 1MW,并利用电动汽车供应链中成熟的 400V 组件。
Meta:ORv3 标准的推动者
Meta 是 OCP ORv3 电源架标准的联合作者,并在 OCP EMEA 2025 上展示了 ORv3-HPR V4 机柜,采用 ±400V (800V 等效) HVDC,推动机柜功率达到 800kW。
Microsoft:Mount Diablo 解耦架构
Microsoft 与 Meta、Google 联合发布了 Mount Diablo (Diablo 400) 规范——解耦式电源机柜设计,将电源转换从计算机柜中分离出来,形成独立的 Sidecar。这使 AI 加速器密度提升最高 35%,支持从 100kW 到 1MW 的弹性扩展。
电网稳定性挑战:GPU 负载同步波动怎么办?
在大规模 GPU 集群中,一个容易被忽视但极为关键的问题是电力负载的同步波动。
NVIDIA、Microsoft 和 OpenAI 的联合研究发现,同步 GPU 工作负载会导致电网级振荡——功率利用率在毫秒级内从 30% 跳变到 100%。这种"功率脉冲"对电力基础设施构成了独特挑战。
多时间尺度储能缓冲方案
| 时间尺度 | 技术 | 部署位置 | 作用 |
|---|---|---|---|
| 微秒-毫秒 | 片上/板级电容 | GPU VRM 附近 | 吸收瞬态尖峰 |
| 毫秒-秒 | 超级电容 | 机柜/排级 | 缓冲 GPU 工作负载突变 |
| 秒-分钟 | 电池储能 (BESS) | 设施级 | 平滑电网波动,备用电力 |
| 分钟-小时 | 电网+可再生能源 | 园区级 | 基础供电 |
这意味着 800V HVDC 架构的设计不仅仅是"提高电压",还需要在储能策略、控制环路响应速度、保护机制等方面进行系统性设计。
安全与标准化:800V DC 还面临哪些落地障碍?
800V 直流电压在人体安全方面的风险远高于传统的 48V 或 208V 交流。关键挑战包括:
- 电弧风险:DC 电弧不像 AC 那样有过零点自然熄灭,需要专门的灭弧设计
- 人身安全:800V DC 的接触电压远超安全阈值,要求更严格的隔离和锁定/挂牌 (LOTO) 程序
- 保护器件:需要额定 800V+ 的 DC 断路器、熔断器和接触器
- 液冷环境:在液冷机柜中引入 800V DC 需要额外的绝缘和泄漏检测措施
- 标准制定:IEC、NEC、OCP 等标准组织正在更新相关规范
OCP 的 Diablo 400 规范和 EMerge Alliance 正在推动 380-800V DC 的标准化工作,但距离全球范围的安全认证和合规体系完善仍需时间。
800V HVDC 的部署时间线是怎样的?
关键里程碑
- 2025 H2:Eaton 发布 800V DC 参考架构;Vertiv 开始 800V 产品线开发
- 2026 H2:Vertiv 800V DC 产品组合上市(集中式整流器、DC 母线、机柜级 DC-DC、DC 兼容备电)
- 2027:NVIDIA Kyber 机柜量产,800V HVDC 进入规模化部署
电动汽车供应链的交叉赋能
一个常被忽视的加速因素:电动汽车行业的 800V 平台(保时捷 Taycan、现代 E-GMP、比亚迪等)已经催熟了 800V 级 SiC/GaN 器件的量产和成本曲线。Google 已经明确表示正在利用 EV 供应链中的 400V 组件用于数据中心,这种跨行业的技术复用将显著加速 800V HVDC 在数据中心的落地。
对中国电源行业的启示
作为全球最大的电源设备制造基地,中国企业在 800V HVDC 浪潮中面临机遇与挑战:
- 器件端:国内 SiC/GaN 厂商(如英诺赛科 Innoscience,已加入 NVIDIA 联盟)需要加速车规级向数据中心级的转化
- 电源端:台达 (Delta)、光宝 (LiteOn)、麦格米特 (Megmeet) 已入局,国内其他电源厂商需要尽快布局 800V DC-DC 和整流器产品线
- 标准端:国内数据中心建设标准需要跟进 OCP Diablo 400 等国际规范
- 液冷协同:800V HVDC + 液冷是未来 AI 数据中心的标配组合,二者的协同设计将成为差异化竞争力
- 边缘端:GTC 2026 同步发布的 Jetson Thor / IGX Thor 平台将边缘 AI 设备功耗从 15W 推升至 300W+,200-500W 工业级开关电源需求急剧增长——这是与数据中心 800V HVDC 平行的另一个供电变革方向(详见 NVIDIA 边缘 AI 供电深度解析)
总结
NVIDIA 800V HVDC 不仅仅是一个电压等级的提升,而是从电网到芯片的全链路供电架构重构:
- 物理层面:消除 UPS/PDU,减少转换级数,降低铜材 45%
- 效率层面:端到端效率从 ~83% 提升至 ~92%+,TCO 降低 ~30%
- 器件层面:GaN/SiC 宽禁带半导体取代传统硅基器件,LLC 谐振拓扑实现 98%+ 转换效率
- 架构层面:解耦式 Sidecar 设计释放计算密度,支持 MW 级机柜
- 生态层面:29 家联盟成员 + OCP 开放标准 + EV 供应链交叉赋能
2027 年 Kyber 机柜的量产将是关键节点。届时,800V HVDC 将从概念验证进入规模化部署,重塑全球数据中心的供电基础设施。
常见问题 (FAQ)
Q: 800V HVDC 相比传统 AC 配电的核心优势是什么?
800V HVDC 消除了 UPS 和 PDU 两个完整的功率转换环节,将配电链路从 4-5 级简化为 2 级。端到端效率从传统 AC 的约 83% 提升至 92% 以上,同时铜材用量减少 45%,总拥有成本 (TCO) 降低约 30%。在 MW 级机柜场景下,这是从"优化"到"必需"的转变。
Q: NVIDIA 800V HVDC 架构预计何时量产部署?
NVIDIA 计划于 2027 年随 Rubin Ultra Kyber 机柜量产部署 800V HVDC。Vertiv 的 800V DC 产品组合预计 2026 年下半年上市,Eaton 已于 2025 年 10 月发布 800V DC 参考架构。生态系统正在加速成熟。
Q: 48V/54V DC 和 800V DC 的本质区别是什么?
48V/54V DC 仍然在机柜内进行 AC-DC 转换,只是将机柜内部从交流改为直流配电。800V DC 则将 DC 转换前推至设施级,通过固态变压器直接从中压电网输出 800V DC,在机柜内仅需一级 64:1 LLC 谐振 DC-DC 转换。这是从"机柜级 DC"到"设施级 DC"的架构跃迁。
Q: 800V DC 在安全性方面有什么挑战?
800V DC 的主要安全挑战包括:DC 电弧没有过零点无法自然熄灭,接触电压远超人体安全阈值,以及在液冷环境中的绝缘要求。OCP Diablo 400 规范和 EMerge Alliance 正在推动标准化,但全球范围的安全认证体系仍在完善中。
本文最后更新于 2026 年 3 月。文中引用的技术数据来自 NVIDIA 官方技术博客、OCP 基金会、以及各供应商公开发布的产品规格和白皮书。
参考来源:
- NVIDIA Technical Blog: 800 VDC Architecture for Next-Generation AI Factories
- NVIDIA Technical Blog: Building the 800 VDC Ecosystem
- NVIDIA DGX GB200 User Guide: docs.nvidia.com
- Microsoft Tech Community: Mt. Diablo Disaggregated Power
- Google Cloud Blog: Enabling 1 MW IT Racks at OCP EMEA
- OCP Foundation: Open Data Center Ecosystem Vision
- Electronic Design: 800V Bus - NVIDIA AI Power Architecture
- Schneider Electric Blog: The 1 MW AI IT Rack Needs 800 VDC Power
- Vertiv: Preparing for HVDC
- Eaton: Next-Generation 800V Architecture