FacebookLinkedInWhatsApp

NVIDIA 800V HVDC 技术路线深度解析:从 54V 机柜到百万瓦 AI 工厂

发布于 2026-03-06· 三一精工 / Sanyi Power
HVDC800VNVIDIA数据中心电源GaNSiC

核心要点: NVIDIA 正在推动数据中心供电架构从传统交流配电向 800V 高压直流 (HVDC) 的根本性转变。这一转变将消除多达 4 个功率转换环节,使端到端供电效率提升 5% 以上,铜材用量减少 45%,TCO 降低约 30%。本文从电力电子拓扑、半导体器件、机柜架构到产业生态,全面解读这场供电革命的技术内核。


为什么数据中心供电架构必须改变?

一个直观的数字:NVIDIA Hopper (H100) 时代,单机柜功率约 40kW;到 Blackwell (GB200),这个数字跃升至 120kW;而 2027 年的 Rubin Ultra Kyber 机柜,预计将达到 600kW 至 1MW

三年之内,机柜功率密度增长了 25 倍

传统的交流配电体系——从市电变压器、UPS、PDU 到服务器电源——在这样的功率密度下已经力不从心。不是效率问题,而是物理极限:当 54V 母线需要承载 18,500A 电流为 1MW 机柜供电时,仅铜排就需要 200kg,整个 1GW 数据中心将消耗 200 吨铜

NVIDIA GPU 平台功率演进 (单机柜) 0 kW 200 kW 400 kW 600 kW 800 kW 40 kW Hopper 2023 120 kW Blackwell 2024 142 kW BW Ultra 2025 230 kW Vera Rubin 2026 600kW-1MW Rubin Ultra 2027

数据来源:NVIDIA GTC 2025 主题演讲NVIDIA Technical Blog


传统 AC 与 HVDC 的效率差异有多大?

要理解 HVDC 的价值,必须先看清传统交流配电链路中每一级转换的代价。

传统 AC 配电路径 (4-5 级转换)

市电
13.8kV AC
变压器
13.8kV → 480V
损耗 ~1-2%
UPS
AC→DC→AC
损耗 ~6-12%
PDU
480V → 208V
损耗 ~3%
服务器 PSU
208V AC → 12V DC
损耗 ~8-10%
VRM
12V → 0.8V
损耗 ~5-8%

端到端效率:约 61%(传统)至 87.5%(现代高效)

800V HVDC 路径 (2 级转换)

市电
13.8kV AC
集中式整流器
13.8kV AC → 800V DC
损耗 ~2-3%
DC-DC (64:1 LLC)
800V → 12V DC
损耗 ~2%
VRM
12V → 0.8V
损耗 ~5-8%

端到端效率提升至 92% 以上,且消除了 UPS 和 PDU 两个完整环节。

AC vs. 800V HVDC 配电效率对比 传统 AC 路径 变压器 13.8kV→480V UPS AC→DC→AC PDU 480V→208V 服务器 PSU 208V AC→12V VRM 12V→0.8V ~83% 800V HVDC 路径 集中式整流器 13.8kV AC → 800V DC DC-DC 转换器 800V → 12V (LLC) VRM 12V→0.8V ~92%+ 效率增益 传统 AC: ~83% (现代高效) 800V HVDC: ~92%+ (消除 UPS/PDU)

数据来源:Eltek 白皮书, Vertiv, ACM Queue


GB200 NVL72 的 54V DC 供电架构是怎样的?

在 800V 全面铺开之前,NVIDIA 当前的 Blackwell 平台已经采用了 54V DC 机柜内供电——这是迈向 HVDC 的过渡架构。

机柜规格一览

参数规格
总功率~120 kW (GB200 NVL72) / ~142 kW (GB300 NVL72)
机柜重量1.36 吨 (3,000 磅)
计算节点18 x 1U,每节点 2 个 Grace-Blackwell 超级芯片
单节点功率5.4-5.7 kW
电源架8 个,每架 6 个 5.5kW PSU (OCP ORv3 HPR)
输入三相 AC, 347/200-480/277 VAC
输出50-51 VDC, 每架最高 660A
PSU 效率峰值接近 98%, 30-100% 负载下 ≥97.5%
冗余N+N 配置

供电拓扑

电源架位于机柜顶部和底部,将三相交流电转换为 ~50-54V 直流电。一条铜母线 (bus bar) 沿机柜背部纵向延伸,将 DC 配送到每个计算和交换托盘。每个托盘上的 VRM 再将 48-54V 降压到 GPU 核心所需的 ~0.7-1.0V。

GB200 NVL72 机柜供电架构 NVIDIA Oberon 机柜 (120kW) 电源架 x4 (AC→54V DC) | 33kW x4 计算节点 x18 每节点: 2x Grace-Blackwell Superchip + 5x NIC | 5.4-5.7kW/节点 GPU GPU GPU GPU ... 共 72 个 Blackwell GPU ... NVLink Switch x9 (5th-gen NVLink) 网络交换机 (ConnectX-7 / BlueField-3) 电源架 x4 (AC→54V DC) | 33kW x4 54V DC 铜母线 (BUS BAR) 关键参数 电源架 (ORv3 HPR) 计算节点 DC 铜母线 PSU 效率: ≥97.5% 输出: 50-51 VDC 每架电流: ≤660A 冗余: N+N 液冷: 冷板式 冷板液冷回路 (CDU → 机柜 → CDU) 进水 15-25°C → 出水 ~45°C

数据来源:NVIDIA DGX GB200 User Guide

54V 架构的瓶颈

这套架构在 120-142kW 下运行良好,但面对 MW 级需求时遇到了物理墙:

  • 电流过大:1MW / 54V ≈ 18,500A,需要截面积惊人的铜导体
  • 空间占用:供电 1MW 需要约 64U 的电源架空间,无法为计算留出余量
  • 铜材消耗:单机柜约 200kg 铜排,一个 1GW 园区需要 200 吨铜
  • I²R 损耗:大电流带来显著的导体发热和压降

这正是 800V HVDC 架构的设计出发点。


800V HVDC 架构如何解决这些瓶颈?

核心设计理念

800V HVDC 的技术思路清晰:提高配电电压,从而按比例降低电流

在相同功率下,800V 相比 54V:

  • 电流降至 1/15
  • 铜材用量减少 45%
  • 同等导体可传输 85% 更多功率
  • 三线制 (POS/RTN/PE) 比交流四线制更简洁
  • 相比 415V AC,同规格线缆可传输 157% 更多功率

NVIDIA Kyber 机柜架构

2025 年 GTC 上,Jensen Huang 展示了基于 800V HVDC 的 Kyber 机柜设计:

  • 算力:576 个 Rubin Ultra GPU
  • 供电:800V DC "Sidecar" 电源单元
  • 功率:600kW - 1MW+
  • 转换:仅需一级 DC-DC (800V → 12V,64:1 LLC 谐振拓扑)
  • 面积:比多级转换方案减少 26% 占用
800V HVDC 数据中心供电架构 电网 13.8kV AC 固态变压器 (SST) SiC/GaN 器件 13.8kV AC → 800V DC 效率 ~97-98% 800V DC 母线/线槽 极低损耗 BESS 储能系统 Kyber 计算机柜 #1 DC-DC: 800V→12V (64:1 LLC) 576x Rubin Ultra GPU | ~1MW Kyber 计算机柜 #2 DC-DC: 800V→12V (64:1 LLC) 576x Rubin Ultra GPU | ~1MW ... 机柜 #N ... Sidecar 电源单元 解耦式设计 (Mt. Diablo) 独立散热 | 热插拔 | 独立维护 800V DC 800V DC

数据来源:NVIDIA Technical Blog, Schneider Electric Blog


GaN 与 SiC:哪种宽禁带半导体更适合 800V?

800V HVDC 架构对功率半导体提出了前所未有的要求。NVIDIA 在 COMPUTEX 2025 上宣布成立的 800V HVDC 供应商联盟,集结了 14 家芯片公司,核心技术路线分为两大阵营。

宽禁带半导体对比

参数硅基 MOSFETGaN (氮化镓)SiC (碳化硅)
带隙 (eV)1.13.43.3
击穿场强 (MV/cm)0.33.32.8
电子迁移率 (cm²/V·s)1,4502,000900
导热系数 (W/m·K)150130490
最佳应用电压范围<200V100-650V650-3,300V
开关频率优势基准极高 (MHz级)高 (数百kHz)
典型效率94-96%>98%>98%

关键器件方案

800V → 12V 机柜级 DC-DC 转换器:

供应商技术规格特点
EPCeGaN FET6kW, 800V→12.5V高频开关,尺寸极小
Power IntegrationsPowiGaN1,250V 单开关集成度高,简化设计
RenesasLLC DCX双向 GaN 开关高达 98% 效率
STMicroelectronicsSiC + GaN 混合12kW 模块智能手机大小的板级方案
NavitasGeneSiC SiC MOSFET沟槽辅助平面结构高雪崩能量

设施级 AC → 800V DC 整流器:

采用固态变压器 (SST) 技术,使用高压 SiC 器件直接从 13.8kV 或 34.5kV 中压 AC 输出 800V DC。初级侧使用 650V GaN 晶体管的堆叠半桥配置,次级侧使用 100V GaN 晶体管。

宽禁带半导体在 800V HVDC 中的应用分布 工作电压范围 12V 48-54V 400V 800V 13.8kV Si MOSFET VRM 核心电压调节 12V → 0.7-1.0V GaN (氮化镓) DC-DC 转换器 (800V→12V) | SST 次级侧 高频优势 → 缩小磁性元件体积 SiC (碳化硅) SST 初级侧 | 设施级整流器 | 高压大电流 NVIDIA Kyber 800V DC

数据来源:Electronic Design, ST Blog, Navitas, NVIDIA 800V HVDC Supplier Alliance


64:1 LLC 谐振转换器是如何工作的?

NVIDIA Kyber 机柜内的 DC-DC 转换采用 64:1 LLC 谐振拓扑,这是整个 800V 架构中技术难度最高的环节。

为什么选择 LLC 谐振?

LLC 谐振转换器由一个电感 (Lr)、一个电感 (Lm) 和一个电容 (Cr) 构成谐振网络。其核心优势在于:

  1. 零电压开关 (ZVS):初级侧 MOSFET 在零电压条件下导通,几乎消除开关损耗
  2. 零电流开关 (ZCS):次级侧整流二极管在零电流条件下关断
  3. 高频运行:降低变压器和电感的体积——在 800V/MW 级场景中,磁性元件的体积和重量是关键约束
  4. 软开关特性:大幅降低 EMI,简化滤波器设计

64:1 变比的挑战

从 800V 到 12.5V 需要 64:1 的变比,这给变压器设计带来了几个工程难题:

  • 匝比优化:初级绕组匝数多、次级极少,漏感控制困难
  • 趋肤效应和邻近效应:高频下铜线的有效截面积显著减小,需要利兹线或 PCB 绕组
  • 热管理:高功率密度下的散热——STMicroelectronics 的方案将 12kW 转换器压缩到智能手机大小
64:1 LLC 谐振转换器简化拓扑 800V DC RTN Q1 GaN/SiC Q2 GaN/SiC 半桥 Lr Cr Lm 变压器 64:1 高频平面变压器 同步 整流 滤波 Co 12V DC → VRM → GPU 谐振网络 (Lr + Cr + Lm) 实现初级侧 ZVS,消除开关损耗 次级侧 ZCS 零电流关断,效率 ≥98%

参考:Electronic Design, Renesas LLC DCX 技术文档


哪些企业加入了 800V HVDC 生态?

NVIDIA 并非单打独斗。2025 年 COMPUTEX 上,NVIDIA 正式宣布成立 800V HVDC 供应商联盟,涵盖三个层级:

联盟成员

半导体合作伙伴 (14 家):Analog Devices、AOS、EPC、Infineon、Innoscience、MPS、Navitas、OnSemi、Power Integrations、Renesas、Richtek、ROHM、STMicroelectronics、Texas Instruments

电源组件合作伙伴 (6 家):Bizlink、Delta、Flex Power、Lead Wealth、LiteOn、Megmeet

数据中心电力系统合作伙伴 (9 家):ABB、Eaton、GE Vernova、Heron Power、Hitachi Energy、Mitsubishi Electric、Schneider Electric、Siemens、Vertiv

OCP 开放标准:Diablo 400

与 NVIDIA 联盟并行,OCP 基金会在 Google、Meta、Microsoft 的联合推动下发布了 Diablo 400 (Mount Diablo) 规范 (v0.5.2, 2025 年 5 月):

  • 支持 ±400V DC (即 800V 双极)800V DC 配电
  • 解耦式设计:计算机柜与电源 Sidecar 机柜分离
  • 可扩展:单机柜 100kW 至 1MW
  • AI 加速器密度提升最高 35%(电源组件不再占据计算空间)
800V HVDC 产业生态全景 NVIDIA 800V HVDC 半导体 (14家) Infineon SiC/GaN TI Power IC STMicro SiC+GaN EPC Navitas 电源组件 (6家) Delta LiteOn PSU Flex 系统集成 (9家) Schneider 配电 Vertiv 800V产品线 Eaton OCP Diablo 400 Google Meta Microsoft

数据来源:NVIDIA COMPUTEX 2025, OCP Foundation, Data Center Dynamics


超大规模玩家的 HVDC 实践进展如何?

NVIDIA 不是第一个拥抱 DC 配电的——超大规模厂商已经在路上。

Google:从 48V 先驱到 ±400V DC

Google 是数据中心 DC 配电的先驱,早在 ~2010 年就开始部署 48V DC 机柜,并于 2016-2017 年将 48V 机柜设计贡献给 OCP。从 12V 到 48V 的迁移实现了 30% 的能效提升。现在,Google 正在部署 ±400V DC (等效 800V 双极),支持单机柜最高 1MW,并利用电动汽车供应链中成熟的 400V 组件。

Meta:ORv3 标准的推动者

Meta 是 OCP ORv3 电源架标准的联合作者,并在 OCP EMEA 2025 上展示了 ORv3-HPR V4 机柜,采用 ±400V (800V 等效) HVDC,推动机柜功率达到 800kW。

Microsoft:Mount Diablo 解耦架构

Microsoft 与 Meta、Google 联合发布了 Mount Diablo (Diablo 400) 规范——解耦式电源机柜设计,将电源转换从计算机柜中分离出来,形成独立的 Sidecar。这使 AI 加速器密度提升最高 35%,支持从 100kW 到 1MW 的弹性扩展。


电网稳定性挑战:GPU 负载同步波动怎么办?

在大规模 GPU 集群中,一个容易被忽视但极为关键的问题是电力负载的同步波动

NVIDIA、Microsoft 和 OpenAI 的联合研究发现,同步 GPU 工作负载会导致电网级振荡——功率利用率在毫秒级内从 30% 跳变到 100%。这种"功率脉冲"对电力基础设施构成了独特挑战。

多时间尺度储能缓冲方案

时间尺度技术部署位置作用
微秒-毫秒片上/板级电容GPU VRM 附近吸收瞬态尖峰
毫秒-秒超级电容机柜/排级缓冲 GPU 工作负载突变
秒-分钟电池储能 (BESS)设施级平滑电网波动,备用电力
分钟-小时电网+可再生能源园区级基础供电

这意味着 800V HVDC 架构的设计不仅仅是"提高电压",还需要在储能策略、控制环路响应速度、保护机制等方面进行系统性设计。


安全与标准化:800V DC 还面临哪些落地障碍?

800V 直流电压在人体安全方面的风险远高于传统的 48V 或 208V 交流。关键挑战包括:

  • 电弧风险:DC 电弧不像 AC 那样有过零点自然熄灭,需要专门的灭弧设计
  • 人身安全:800V DC 的接触电压远超安全阈值,要求更严格的隔离和锁定/挂牌 (LOTO) 程序
  • 保护器件:需要额定 800V+ 的 DC 断路器、熔断器和接触器
  • 液冷环境:在液冷机柜中引入 800V DC 需要额外的绝缘和泄漏检测措施
  • 标准制定:IEC、NEC、OCP 等标准组织正在更新相关规范

OCP 的 Diablo 400 规范和 EMerge Alliance 正在推动 380-800V DC 的标准化工作,但距离全球范围的安全认证和合规体系完善仍需时间。


800V HVDC 的部署时间线是怎样的?

NVIDIA HVDC 技术路线时间线 2023 Hopper H100 12V/48V | 40kW 2024 Blackwell GB200 54V DC | 120kW 2025 800V 联盟成立 GB300 | Diablo 400 142kW 2026 Vera Rubin VR200 Vertiv 800V 产品线 ~230kW 2027 Rubin Ultra Kyber 800V HVDC 量产 600kW - 1MW 过渡期:48-54V DC 生态建设 800V HVDC 全面部署 电动汽车 800V 供应链加速数据中心器件成熟

关键里程碑

  • 2025 H2:Eaton 发布 800V DC 参考架构;Vertiv 开始 800V 产品线开发
  • 2026 H2:Vertiv 800V DC 产品组合上市(集中式整流器、DC 母线、机柜级 DC-DC、DC 兼容备电)
  • 2027:NVIDIA Kyber 机柜量产,800V HVDC 进入规模化部署

电动汽车供应链的交叉赋能

一个常被忽视的加速因素:电动汽车行业的 800V 平台(保时捷 Taycan、现代 E-GMP、比亚迪等)已经催熟了 800V 级 SiC/GaN 器件的量产和成本曲线。Google 已经明确表示正在利用 EV 供应链中的 400V 组件用于数据中心,这种跨行业的技术复用将显著加速 800V HVDC 在数据中心的落地。


对中国电源行业的启示

作为全球最大的电源设备制造基地,中国企业在 800V HVDC 浪潮中面临机遇与挑战:

  1. 器件端:国内 SiC/GaN 厂商(如英诺赛科 Innoscience,已加入 NVIDIA 联盟)需要加速车规级向数据中心级的转化
  2. 电源端:台达 (Delta)、光宝 (LiteOn)、麦格米特 (Megmeet) 已入局,国内其他电源厂商需要尽快布局 800V DC-DC 和整流器产品线
  3. 标准端:国内数据中心建设标准需要跟进 OCP Diablo 400 等国际规范
  4. 液冷协同:800V HVDC + 液冷是未来 AI 数据中心的标配组合,二者的协同设计将成为差异化竞争力
  5. 边缘端:GTC 2026 同步发布的 Jetson Thor / IGX Thor 平台将边缘 AI 设备功耗从 15W 推升至 300W+,200-500W 工业级开关电源需求急剧增长——这是与数据中心 800V HVDC 平行的另一个供电变革方向(详见 NVIDIA 边缘 AI 供电深度解析

总结

NVIDIA 800V HVDC 不仅仅是一个电压等级的提升,而是从电网到芯片的全链路供电架构重构

  • 物理层面:消除 UPS/PDU,减少转换级数,降低铜材 45%
  • 效率层面:端到端效率从 ~83% 提升至 ~92%+,TCO 降低 ~30%
  • 器件层面:GaN/SiC 宽禁带半导体取代传统硅基器件,LLC 谐振拓扑实现 98%+ 转换效率
  • 架构层面:解耦式 Sidecar 设计释放计算密度,支持 MW 级机柜
  • 生态层面:29 家联盟成员 + OCP 开放标准 + EV 供应链交叉赋能

2027 年 Kyber 机柜的量产将是关键节点。届时,800V HVDC 将从概念验证进入规模化部署,重塑全球数据中心的供电基础设施。


常见问题 (FAQ)

Q: 800V HVDC 相比传统 AC 配电的核心优势是什么?

800V HVDC 消除了 UPS 和 PDU 两个完整的功率转换环节,将配电链路从 4-5 级简化为 2 级。端到端效率从传统 AC 的约 83% 提升至 92% 以上,同时铜材用量减少 45%,总拥有成本 (TCO) 降低约 30%。在 MW 级机柜场景下,这是从"优化"到"必需"的转变。

Q: NVIDIA 800V HVDC 架构预计何时量产部署?

NVIDIA 计划于 2027 年随 Rubin Ultra Kyber 机柜量产部署 800V HVDC。Vertiv 的 800V DC 产品组合预计 2026 年下半年上市,Eaton 已于 2025 年 10 月发布 800V DC 参考架构。生态系统正在加速成熟。

Q: 48V/54V DC 和 800V DC 的本质区别是什么?

48V/54V DC 仍然在机柜内进行 AC-DC 转换,只是将机柜内部从交流改为直流配电。800V DC 则将 DC 转换前推至设施级,通过固态变压器直接从中压电网输出 800V DC,在机柜内仅需一级 64:1 LLC 谐振 DC-DC 转换。这是从"机柜级 DC"到"设施级 DC"的架构跃迁。

Q: 800V DC 在安全性方面有什么挑战?

800V DC 的主要安全挑战包括:DC 电弧没有过零点无法自然熄灭,接触电压远超人体安全阈值,以及在液冷环境中的绝缘要求。OCP Diablo 400 规范和 EMerge Alliance 正在推动标准化,但全球范围的安全认证体系仍在完善中。


本文最后更新于 2026 年 3 月。文中引用的技术数据来自 NVIDIA 官方技术博客、OCP 基金会、以及各供应商公开发布的产品规格和白皮书。

参考来源: