智算弱电学习系统
课程概览机房规划M5-03 PUE详细测算与能效设计

M5-03 PUE详细测算与能效设计

模块5 · Day 22 | 机房规划与空间设计

学习者:王鸿才 | 目标岗位:弱电智能化解决方案架构师(智算中心) 项目锚点:北京平谷智算数据中心(9120个6kW机柜,80%利用率) 核心命题:平谷项目每年耗电多少度?PUE是多少?如何精确计算并优化?


导言:PUE为什么是数据中心的"第一KPI"

PUE(Power Usage Effectiveness,电能利用效率)是当今数据中心行业最重要的单一指标。

PUE的计算公式

PUE = 数据中心总用电量 / IT设备用电量
    = (IT设备 + 制冷 + 供电损耗 + 照明 + 其他) / IT设备

为什么PUE如此重要?

平谷项目量化影响(9120机柜×6kW,80%利用率):

IT设备年耗电 = 9120 × 6kW × 80% × 8760h/年
            = 9120 × 4.8kW × 8760h
            = 383,385,600 kWh ≈ 3.83 亿度/年

PUE=1.5时,总耗电:3.83×1.5 = 5.75 亿度/年(非IT损耗 1.92 亿度)
PUE=1.3时,总耗电:3.83×1.3 = 4.98 亿度/年(非IT损耗 1.15 亿度)
PUE=1.2时,总耗电:3.83×1.2 = 4.60 亿度/年(非IT损耗 0.77 亿度)

PUE从1.5优化到1.3,每年节电:(5.75-4.98)×10^8 = 7700万度
按商业电价0.7元/度:节约成本 = 7700万 × 0.7 = **5390万元/年**!

PUE的历史演进与国家要求

时期行业平均PUE先进水平中国政策要求
2010年前2.0-2.51.5-1.8
2015年1.7-2.01.3-1.5部分省份限制2.0
2020年1.4-1.61.2-1.3工信部要求新建≤1.5(一线城市≤1.4)
2023年1.3-1.51.1-1.2工信部要求≤1.3(数字化园区)
平谷项目目标≤1.25先进数据中心标准

1. PUE测算方法完整版

1.1 IT设备能耗(IT Equipment Power)

IT设备能耗是PUE计算的"分母",包含以下组成:

IT设备能耗分类:

类别1:服务器(Servers)
  ├── CPU服务器(通用计算)
  ├── GPU服务器(AI训练/推理)
  └── FPGA/ASIC加速器

类别2:存储设备(Storage)
  ├── NVMe全闪存储阵列(All-Flash Array)
  ├── 混合闪存阵列(Hybrid Flash)
  └── 磁带库/磁盘库(低频数据)

类别3:网络设备(Network Equipment)
  ├── 核心/汇聚/接入交换机
  ├── 负载均衡器
  ├── 防火墙/安全设备
  └── InfiniBand交换机(AI集群专用)

类别4:机架附件(Rack Components)
  ├── PDU(配电单元,自身有功耗)
  └── KVM切换器/终端服务器

平谷项目IT设备能耗估算

参数设定:
  机柜总数:9120个
  机柜额定功率:6 kW/柜
  机柜利用率:80%(题目给定)

IT总功耗 = 9120柜 × 6kW/柜 × 80%
         = 9120 × 4.8 kW
         = **43,776 kW = 43.8 MW**

分项说明(按典型比例分配):
  服务器:43,776 × 85% = 37,210 kW(主体)
  存储设备:43,776 × 8% = 3,502 kW
  网络设备:43,776 × 5% = 2,189 kW
  机架附件(PDU等):43,776 × 2% = 875 kW

1.2 制冷系统能耗(Cooling System Power)

制冷系统是数据中心最大的非IT能耗,通常占总非IT能耗的40-60%。

制冷系统能耗分解:

子系统1:冷水机组(Chiller)
  作用:将冷冻水降温到7°C(或更高)
  功耗:约 0.5-0.8 kW/kW(制冷量的50-80%为电功耗)
  COP(制冷系数)= 制冷量/电功耗 = 1.25-2.0(传统机组)
              = 3.0-6.0(高效离心冷机,配合高温冷冻水)

子系统2:冷却塔(Cooling Tower)
  作用:将冷却水中的热量排放到大气
  功耗:约占冷机功耗的5-10%
  北京地区特殊:冬季可利用自然冷却(Free Cooling),大幅降低能耗

子系统3:水泵(Pumps)
  ├── 冷冻水泵(Chilled Water Pump,CWP):将7°C冷冻水送到末端
  └── 冷却水泵(Cooling Water Pump,CONWP):循环冷却水到冷却塔
  功耗:约占冷机功耗的15-20%

子系统4:末端设备(Terminal Cooling)
  ├── CRAC(Computer Room Air Conditioner,机房精密空调)
  │     直接膨胀式,自带压缩机,噪声大,COP约2-3
  ├── CRAH(Computer Room Air Handler,机房空调箱)
  │     无压缩机,靠冷冻水降温,配合集中冷水机组使用,噪声小,效率高
  └── 列间空调(In-Row Cooling)
        靠近热源,精准降温,适合高密度区域
  功耗:风机功耗(占末端约20-30%)

平谷项目制冷系统能耗计算

计算参数:
  IT设备热量 = IT功耗 = 43,776 kW(全部转化为热量,保守估算)
  制冷方式:冷水机组 + CRAH + 冷却塔 + 水泵
  设计冷冻水温度:供水12°C / 回水18°C(高温冷冻水,配合热通道封闭)

冷水机组能耗估算:
  目标COP(高效离心冷机,12°C供水)= 5.0
  冷机功耗 = 制冷量 / COP = 43,776 / 5.0 = **8,755 kW**

冷却塔风机功耗:
  冷却塔风机功耗 ≈ 冷机功耗 × 8% = 8,755 × 8% = 700 kW

水泵功耗:
  冷冻水泵 + 冷却水泵 ≈ 冷机功耗 × 20% = 8,755 × 20% = 1,751 kW

CRAH风机功耗:
  每台CRAH配套风机功率约 3-8 kW(变频)
  按每400 kW制冷量配1台CRAH,9000台CRAH,每台5kW:
  单栋 CRAH 数量 = 7,296kW(单栋制冷量)/ 400kW = 18台
  全园区 CRAH = 18台 × 6栋 = 108台
  全园区 CRAH 风机功耗 = 108 × 5kW = 540 kW

制冷系统总功耗:
  冷机:8,755 kW
  冷却塔:700 kW
  水泵:1,751 kW
  CRAH:540 kW
  ──────────────────────
  小计:**11,746 kW(约 11.7 MW)**

1.3 供电系统损耗(Power System Loss)

供电损耗分解:

损耗点1:变压器(Transformer)
  变压器效率:约 98-99.5%(满载时)
  轻载时效率更低(空载损耗固定)
  损耗功率 ≈ 全负荷 × (1-0.985) = 1.5%
  43,776 kW × 1.5% = 657 kW

损耗点2:UPS系统(在线双变换)
  双变换UPS效率:约 92-96%(负载率60-80%时最佳)
  取效率 94%:
  损耗功率 = 43,776 × (1-0.94)/0.94 = 43,776 × 6.38% = 2,793 kW

  注:UPS ECO模式(经济运行)效率可达98-99%
  ECO模式损耗 = 43,776 × (1-0.99)/0.99 = 43,776 × 1.01% = 442 kW

损耗点3:PDU(精密配电单元)
  每个PDU(列头柜)典型效率:99%
  损耗 ≈ 43,776 × 1% = 438 kW

损耗点4:线缆(电阻损耗)
  UPS到PDU段:取0.5%损耗
  43,776 × 0.5% = 219 kW

供电系统总损耗:
  变压器:657 kW
  UPS(正常模式):2,793 kW
  PDU:438 kW
  线缆:219 kW
  ──────────────────────
  小计:**4,107 kW(约 4.1 MW)**

若采用 UPS ECO 模式替换 UPS 正常模式:
  UPS损耗降至 442 kW
  供电系统总损耗 = 657 + 442 + 438 + 219 = **1,756 kW**

1.4 照明能耗(Lighting Power)

照明系统设计(数据中心):

主机房区:
  LED工业灯,功率约 30-50W/盏
  主机房面积(单栋):1800m²,照度要求 300-500 lux
  灯具间距:约 3m×3m(9m²/盏)
  灯具数量:1800 / 9 = 200盏
  主机房照明功耗:200 × 40W = 8,000W = 8 kW(单栋)

支持区(UPS室/配电室等):
  功耗约 3 kW(单栋)

行政区:
  功耗约 2 kW(单栋)

全园区照明总功耗:
  (8 + 3 + 2) kW × 6栋 = **78 kW**

说明:照明功耗相比IT设备(43,776 kW)极小,影响可忽略不计。
但在绿色评级时仍需精确计量。

1.5 辅助系统能耗(Auxiliary Systems)

辅助系统分类:

1. 安防监控系统
   摄像头(全园区约500个):500 × 15W = 7,500W = 7.5 kW
   视频存储服务器(NVR):约 5 kW
   门禁控制器:约 2 kW
   小计:约 15 kW

2. 动环监控系统(DCIM)
   传感器+采集器+服务器:约 10 kW

3. 消防控制系统
   控制主机+探测器供电:约 5 kW

4. 通风系统(非主机房,支持区/行政区)
   约 20 kW

辅助系统总功耗:约 **50 kW**

2. 分项PUE计算案例(平谷项目完整计算)

2.1 汇总计算表

平谷项目PUE完整计算表(满负荷,正常运行模式)
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
类别              分项              功耗(kW)   占比
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
IT设备(分母)    服务器            37,210     62.7%
               存储              3,502      5.9%
               网络              2,189      3.7%
               PDU等             875       1.5%
               IT小计            43,776    73.8%
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
制冷系统         冷水机组          8,755     14.8%
               冷却塔风机         700       1.2%
               水泵(CWP+CONWP)  1,751     3.0%
               CRAH风机          540       0.9%
               制冷小计          11,746    19.8%
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
供电系统(双变换)变压器损耗        657       1.1%
               UPS损耗           2,793     4.7%
               PDU损耗           438       0.7%
               线缆损耗          219       0.4%
               供电小计          4,107     6.9%
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
其他            照明              78        0.1%
               辅助系统          50        0.1%
               其他小计          128       0.2%
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
总计            数据中心总功耗     59,757    100%
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
PUE = 59,757 / 43,776 = **1.365**
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━

2.2 PUE计算的关键理解

PUE = 1 + 非IT损耗比

推导:PUE = 总功耗 / IT功耗
         = (IT + 非IT) / IT
         = 1 + 非IT / IT
         = 1 + (11,746 + 4,107 + 128) / 43,776
         = 1 + 15,981 / 43,776
         = 1 + 0.365
         = **1.365**

各系统贡献的PUE增量:
  制冷贡献:11,746 / 43,776 = 0.268(最大单项!)
  供电贡献:4,107 / 43,776 = 0.094
  照明+辅助:128 / 43,776 = 0.003

→ 降低PUE的重点:**首先优化制冷系统**(贡献73%的非IT损耗)

2.3 PUE结果评价

当前计算结果:PUE = 1.365

对比行业基准(北京地区,2023年标准):
  一般水平:PUE 1.4-1.5
  良好水平:PUE 1.3-1.4     ← 平谷项目当前估算在此区间
  先进水平:PUE 1.2-1.3
  卓越水平:PUE < 1.2(谷歌台湾数据中心:1.10;Facebook Lulea:1.07)

工信部政策要求(2023年):
  新建大型数据中心:PUE ≤ 1.3
  绿色数据中心评级:≤ 1.25(四星)/ ≤ 1.15(五星)

结论:
  当前估算 PUE=1.365,需要通过优化将其降至 ≤1.25
  优化空间:(1.365 - 1.25) / 1.365 = **8.4%的节能潜力**

3. 北京气候条件分析

3.1 北京全年气温分布

北京属于温带大陆性气候,四季分明,对数据中心能效影响显著:

北京逐月气温分布(历史平均值):
月份   干球温度(°C)  湿球温度(°C)  相对湿度   自然冷却可用性
────────────────────────────────────────────────────
1月    -3.7          -7.2          45%        ✓✓✓ 极佳
2月    -1.1          -4.8          42%        ✓✓✓ 极佳
3月    5.5           0.8           38%        ✓✓  较好
4月    13.4          6.1           42%        ✓   可用(部分时段)
5月    19.6          11.8          45%        ✗   不可用
6月    24.5          17.2          57%        ✗✗  不可用
7月    26.0          22.2          78%        ✗✗✗ 完全不可用
8月    24.7          21.6          78%        ✗✗✗ 完全不可用
9月    19.2          14.6          62%        ✗   不可用
10月   12.5          7.2           52%        ✓   可用(部分时段)
11月   3.7           -0.8          52%        ✓✓  较好
12月   -2.1          -6.2          47%        ✓✓✓ 极佳
────────────────────────────────────────────────────

干球温度(Dry Bulb Temperature)vs 湿球温度(Wet Bulb Temperature)

干球温度:普通温度计测量值(空气温度)
         → 决定冷水机组效率(冷凝侧温度)
         → 决定是否可以"自然冷却"(Free Cooling)

湿球温度:考虑空气湿度的蒸发冷却极限温度
         → 决定冷却塔出水温度下限
         → 比干球温度低,湿度越低差值越大

北京冬季(1月):
  干球 -3.7°C,湿球 -7.2°C
  → 冷却塔出水可降至约 -5°C(冻结风险!需防冻处理)
  → 可以完全不开冷水机组,直接用室外冷源
  → 自然冷却效果极佳

北京夏季(7月):
  干球 26°C,湿球 22.2°C
  → 冷却塔出水约 25-26°C(仅比室外温度低1-2°C)
  → 必须依靠冷水机组机械制冷
  → 冷机COP降低(高冷凝温度导致效率下降)

3.2 自然冷却可用时长估算

自然冷却(Free Cooling / Economizer Mode) 的触发条件:

当室外温度低到足够程度,可以直接用室外冷空气(或冷却水)冷却数据中心,不需要开动压缩机。

自然冷却触发条件(针对平谷项目):
  冷冻水供水温度:12°C(高温冷冻水设计)
  冷却塔出水温度需 ≤ 12°C - 换热器端差(约3°C)= 9°C
  → 室外湿球温度 ≤ 7-8°C时,可使用自然冷却(冷却塔出水≤9°C)

北京逐月自然冷却可用时长(按湿球温度≤8°C计算):
  1月(全月可用):744 h × 100% = 744 h
  2月(全月可用):672 h × 100% = 672 h
  3月(可用约70%):744 h × 70% = 521 h
  4月(可用约20%):720 h × 20% = 144 h
  5月(不可用):0 h
  6-9月(不可用):0 h
  10月(可用约20%):744 h × 20% = 149 h
  11月(可用约80%):720 h × 80% = 576 h
  12月(全月可用):744 h × 100% = 744 h
  ────────────────────────────────────────
  全年自然冷却可用时长:
  744+672+521+144+0+0+0+0+149+576+744 = **3,550 小时/年**
  ≈ 3,550 / 8760 × 100% = **40.5% 的全年时间**

关键数字:北京全年约 3500-4000小时可使用自然冷却(行业常用参考值约4000h)

3.3 混合制冷策略

三种运行模式的切换逻辑

全年运行模式示意:

   室外湿球温度(°C)
   ─────────────────────────────────────────
   ≤ 4°C     │ 模式1:完全自然冷却(Free Cooling)
              │ 冷却塔出水直接供应冷冻水(通过换热器)
              │ 冷水机组完全关闭
              │ 节电效果:最大(相当于PUE制冷部分降至0.05)
   ─────────────────────────────────────────
   4-12°C    │ 模式2:混合制冷(Hybrid Mode)
              │ 自然冷却(冷却塔)+ 机械制冷(冷水机组)并联运行
              │ 按比例混合,自然冷却提供30-80%的冷量
              │ 节电效果:中等(制冷能耗降低30-70%)
   ─────────────────────────────────────────
   > 12°C    │ 模式3:完全机械制冷(Mechanical Cooling)
              │ 冷水机组满载运行
              │ 冷却塔作为冷却水散热器
              │ 节电效果:无额外节省
   ─────────────────────────────────────────

平谷项目混合制冷节能估算

假设:
  模式1(完全自然冷却):1500小时/年
  模式2(混合制冷):2000小时/年
  模式3(机械制冷):5260小时/年

机械制冷能耗(基准):
  冷机功耗:8,755 kW(满负荷)
  全年机械制冷能耗(无节能):8,755 × 8760 = 76,713,800 kWh

实际节能计算:
  模式1节能:8,755 × 1500 × 95% = 12,476,625 kWh(仅保留5%辅助泵功耗)
  模式2节能:8,755 × 2000 × 50% = 8,755,000 kWh(节省一半冷机能耗)
  总节省电量 = 12,476,625 + 8,755,000 = **21,231,625 kWh ≈ 2123万度**

  占全年制冷总能耗比例:2123万度 / 7671万度 = **27.7%**

4. PUE优化设计策略

4.1 策略1:提高冷冻水供水温度

原理:冷水机组压缩机效率(COP)与冷冻水供水温度正相关。供水温度越高,冷机做功越少,COP越高。

冷冻水温度 vs COP 关系(典型离心冷机数据):

冷冻水供水温度   冷机COP(25°C冷却水)   比7°C时节能比例
─────────────────────────────────────────────────
7°C(传统标准)    3.5                    基准
10°C              4.2                    +20%
12°C(推荐)       5.0                    +43%
15°C              5.8                    +66%
─────────────────────────────────────────────────
注:适用前提是末端(服务器)可以接受更高冷冻水温度供给

从 7°C 提升到 12°C 的节能效果

基准方案(7°C供水):
  冷机功耗 = 43,776 / 3.5 = 12,507 kW

优化方案(12°C供水):
  冷机功耗 = 43,776 / 5.0 = 8,755 kW

节省功耗 = 12,507 - 8,755 = **3,752 kW**
节能比例 = 3,752 / 12,507 = **30%**

年节电量 = 3,752 × 8760 = 32,867,520 kWh ≈ **3287万度/年**
按0.7元/度:节约 **2301万元/年**

为什么平谷项目可以用12°C冷冻水?

条件满足情况:
1. 热通道封闭(平谷项目已有)→ 精确控制热气流,服务器进风温度可控
2. ASHRAE A2/A3类服务器 → 进风温度可接受到27°C,而不是仅仅20°C
3. 高温冷冻水配合高效CRAH → CRAH在12°C供水时仍能将冷通道降至20°C以下

供回水温差设计(平谷):
  传统:7°C供水,12°C回水,温差5°C
  优化:12°C供水,18°C回水,温差6°C(温差增大→水量减少→泵功耗降低)

节能数字速记:冷冻水从 7°C 提升到 12°C,冷机节能约 30%(而非前述"15%",需以实际COP曲线为准)

4.2 策略2:热通道封闭(Hot/Cold Aisle Containment)

已在 M5-01 中介绍原理,此处重点量化节能效果

热通道封闭前后对比(平谷项目):

未封闭时:
  冷热气流混合:服务器进风温度不均匀(18-28°C波动)
  为保证最热机柜不过温,空调需降低供风温度→冷冻水温度需更低
  精密空调需额外加大送风量(覆盖混合气流损失)
  实际制冷效率:约 70-75%(25-30%的冷量被浪费)

封闭后:
  冷热隔离,服务器进风温度均匀(20-22°C)
  空调供冷水温度可提高(配合策略1)
  精密空调送风量减少(变频调节)
  实际制冷效率:约 95%(仅5%损耗)

节能效果量化:
  制冷效率提升:从 72.5% 到 95%,提升 31%
  对应PUE改善:制冷部分PUE贡献从 0.268×(1/0.725) 到 0.268×(1/0.95)

  更简单的计算:
  封闭后CRAH风机功耗减少约 40%(变频降速):
  CRAH风机节省:540 kW × 40% = 216 kW

  冷机效率提升允许供水温度提高(叠加策略1)节省:3,752 kW(见上)

  合计节能:**约 3,968 kW**
  PUE改善:3,968 / 43,776 = **0.091**(PUE从1.365降至约1.274)

4.3 策略3:变频控制(Variable Frequency Drive,VFD)

核心原理:泵/风机的功耗与转速的立方成正比(风机定律/泵定律)。

风机/泵功耗与转速关系:
  P ∝ n³(功耗正比于转速的三次方)
  Q ∝ n(流量正比于转速)

  → 流量减少20%,转速减少20%,功耗减少:(1-0.2)³ = 0.512 → 节省 49%!
  → 流量减少50%,功耗减少:0.5³ = 0.125 → 节省 88%!

平谷项目变频应用场景

应用1:冷冻水泵变频
  低负荷时(夜间,IT利用率50%):
  冷冻水需求减少50%,泵转速可降至 50%^(1/3) = 79%
  泵功耗 = 原功耗 × 79%³ = 原功耗 × 50% → 节省50%泵功耗

  估算节省:
  冷冻水泵全年平均利用率70%,变频节省25%:
  原水泵功耗:875 kW(冷冻水泵部分)
  节省:875 × 25% = **219 kW**

应用2:冷却塔风机变频
  按室外温度实时调节,夜间/冬季大幅降速
  估算节省:冷却塔风机功耗 700kW × 35% = **245 kW**

应用3:精密空调风机变频
  已在策略2中计算,冷通道封闭后可降速40%
  节省:540 kW × 40% = **216 kW**

变频控制合计节省:219 + 245 + 216 = **680 kW**
对应PUE改善:680 / 43,776 = **0.016**

4.4 策略4:UPS ECO模式(经济运行模式)

原理:传统在线双变换UPS效率约92-96%,ECO模式下UPS让市电直接供电,仅在市电异常时切换,效率提升至98-99%。

正常双变换模式(Online Double Conversion):
  输入→整流器→直流母线→逆变器→输出
  能量经过两次变换,效率:94%(即损耗6%)
  损耗功耗:43,776 × (1-0.94)/0.94 = 2,793 kW

ECO模式(Economic Mode / Bypass Mode):
  市电正常时:市电→静态旁路→输出(UPS热备但不通电)
  市电异常时:<4ms内切换至 整流+逆变输出
  效率:98-99%(损耗1-2%)
  损耗功耗:43,776 × (1-0.99)/0.99 = 442 kW

节省功耗:2,793 - 442 = **2,351 kW**
对应PUE改善:2,351 / 43,776 = **0.054**

风险评估:
  ECO模式的代价是:市电直接供设备,瞬态电压波动(无UPS滤波)
  智算中心GPU服务器对电能质量要求较高
  建议:标准机柜区使用ECO模式,GPU高密区保持双变换模式
  实际节省约1000-1500 kW(部分机柜使用ECO模式)

4.5 综合优化后的PUE目标

优化前基准:PUE = 1.365

逐项优化效果叠加:
  策略1(冷冻水温度提高到12°C):   -0.086(PUE减少0.086)
  策略2(热通道封闭,叠加策略1后): -0.091(部分与策略1重叠)
  策略3(变频控制):                -0.016
  策略4(部分机柜ECO模式):         -0.024

注:策略1和2有重叠,叠加节能 ≈ 策略2的效果(0.091,包含了策略1的冷冻水温度)
实际叠加:策略1+2+3+4 = 0.091 + 0.016 + 0.024 = 0.131

优化后PUE = 1.365 - 0.131 = **1.234**

→ 接近 ≤1.25 的目标,还需要约 0.016 的进一步优化

其他补充优化措施(进一步降低0.02-0.05):
  - 使用板换(板式换热器)代替部分冷机(北京冬季直接自然冷却)
  - 提高服务器利用率(80%→90%,非IT系统按固定功耗,IT功耗↑,PUE分母↑)
  - 采用高效变压器(效率从98.5%→99.2%)
  - 服务器级别优化(采用高效率80 PLUS Titanium电源)

  最终目标PUE = **≤1.20**(通过以上综合优化)

5. 绿色数据中心评价标准

5.1 工信部评价体系

《国家绿色数据中心先进适用技术产品目录》工信部绿色数据中心认定

工信部绿色数据中心评价指标体系:

一级指标        权重    核心要求
─────────────────────────────────────────────
能源效率        30%     PUE ≤ 1.4(基本)/ ≤ 1.25(先进)
可再生能源利用  20%     可再生能源使用比例 ≥ 15%
水资源利用      15%     WUE(水能效)≤ 2.0
碳排放          20%     碳排放强度(kgCO₂/kWh)
环境影响        10%     噪声/电磁/废弃物处理
管理运维        5%      DCIM系统覆盖率、运维体系
─────────────────────────────────────────────

平谷项目对标

指标工信部先进要求平谷项目设计值差距
PUE(年平均)≤1.251.20(优化目标)达标
WUE(水能效)≤2.01.8(冷却塔蒸发补水)达标
可再生能源≥15%20%(配套光伏/购绿电)达标
DCIM覆盖率≥80%100%(全覆盖)超越

5.2 住建部绿色建筑评级

数据中心建筑可申请住建部《绿色建筑评价标准》(GB/T 50378)认证:

绿色建筑评分体系(数据中心相关项目):

安全耐久(共100分):
  结构安全:20分(A级数据中心已满足)
  外围护结构密闭:10分(气密性好)
  ...

节能与能源利用(共200分):
  建筑节能率:30分
  可再生能源系统:10分
  冷热源能效:50分(→ 制冷系统COP)
  ...

评级:
  基本级:所有控制项达标
  一星:得分 ≥ 60分
  二星:得分 ≥ 70分
  三星:得分 ≥ 85分(最高等级)

平谷项目目标:三星级绿色建筑

5.3 TIA-942 能效等级(美标参考)

TIA-942A(2017版)能效评级:
  Rating 1(基础):无PUE要求
  Rating 2:PUE < 2.0
  Rating 3:PUE < 1.6
  Rating 4(最高):PUE < 1.4

→ 平谷项目(PUE 1.20)远超TIA-942 Rating 4要求
→ 更适合参考 ASHRAE TC 9.9 和 The Green Grid 的更严格标准

6. 年耗电量与碳排放估算

6.1 年耗电量计算

平谷项目年耗电量(优化后,PUE=1.20):

IT设备年耗电 = 43,776 kW × 8760 h = 383,537,760 kWh ≈ **3.84 亿度/年**
总年耗电 = 3.84 × 1.20 = **4.60 亿度/年**

各系统年耗电分解:
  IT设备:3.84 亿度(82.9%)
  制冷:0.43 亿度(9.3%,优化后制冷系统年耗电)
  供电损耗:0.21 亿度(4.6%)
  其他:0.12 亿度(2.6%)
  非IT合计:0.76 亿度(16.5%,对应PUE超出1的部分)

6.2 碳排放估算

北京电网碳排放因子(2023年):约 0.581 kgCO₂/kWh

年碳排放量 = 4.60亿度 × 0.581 kgCO₂/度
           = 267,260,000 kg CO₂
           = **26.73万吨 CO₂/年**

如果采购20%绿电(可再生能源):
  购绿电量 = 4.60亿 × 20% = 0.92亿度(来自光伏/风电,零碳)
  剩余电网电:3.68亿度 × 0.581 = 21.38万吨 CO₂
  碳减排量 = 26.73 - 21.38 = **5.35万吨 CO₂/年**
  相当于种树:5.35万吨 / 0.01吨/棵 = **535万棵树**的年固碳量

7. 模块5综合诊断题(25题)

基础概念层(Q1,10题)

填空

  1. PUE的计算公式:PUE = ______/ ______。
  2. GB50174规定A级数据中心楼板承重 ≥ ______kN/m²。
  3. 冷通道宽度最小值 ______m,热通道 ______m(GB50174)。
  4. 主机房净高(地板面到天花板)≥ ______m。
  5. 数据中心进线间要求从 ≥______个方向引入外部线缆。
  6. 架空地板高度(标准6kW密度)推荐选 ______mm。
  7. 冷通道地板开孔率 ≥ ______%(GB50174)。
  8. 冷通道封闭(CAC)可提升制冷效率约 ______%。
  9. 北京全年可用自然冷却时长约 ______小时/年。
  10. 工信部要求新建大型数据中心PUE ≤ ______(2023年标准)。

答案

  1. 数据中心总用电量 / IT设备用电量
  2. 8.0 kN/m²
  3. 1.2m,1.0m
  4. 3.0m
  5. 2个
  6. 450mm
  7. 25%
  8. 20-30%
  9. 3500-4000小时
  10. 1.3

理解分析层(Q2,10题)

判断题(正确/错误,并说明原因)

  1. "机柜区域均布荷载7.76 kN/m²,小于8.0 kN/m²,所以不满足A级要求。" 答:错误。区域均布荷载(含通道面积分摊)不是结构验算标准。需要按实际集中荷载(柜脚点荷载)做冲切验算。规范8.0 kN/m²是楼板承载能力目标,不是说区域均布必须 ≥ 8.0。

  2. "冷冻水温度从7°C提升到12°C,冷机节能15%。" 答:错误(原文表述不够精确)。实际节能约30%(COP从3.5提升到5.0,提升43%),节能效果远超15%。

  3. "热通道封闭(HAC)比冷通道封闭(CAC)节能更好,所以应该首选HAC。" 答:不完全准确。HAC节能稍好(25-35% vs 20-30%),但改造复杂度更高(需连接天花板回风系统),运维人员不能进入(热通道高温)。平谷项目综合考虑运维便利性,优先选CAC。节能效果是一个因素,不是唯一因素。

  4. "PUE = 1.0 表示数据中心没有任何非IT能耗,是理想状态。" 答:理论上正确,实践上不可能。即使所有散热都被完美回收利用,照明/人员供暖等总有额外能耗。业界实际最低PUE在1.03-1.05(超低温气候地区,如北欧Facebook数据中心)。

  5. "UPS ECO模式可以将所有机柜都切换,大幅节能。" 答:不完全正确。GPU服务器(B2楼)对电能质量敏感,不适合ECO模式(ECO模式切换时有4ms电源中断,GPU训练作业会崩溃)。只能对CPU服务器区使用ECO模式。

简答

  1. 为什么"就近原则"(制冷机房靠近主机房)对PUE有影响?请定量估算。 参考答案:冷冻水输送距离每增加100m,水泵额外功耗约1%(增大管道压降)。平谷项目单栋冷机到主机房若距离200m(过长),额外水泵功耗 = 1751×2% = 35 kW,年额外耗电 35×8760 = 306,600 kWh = 30.7万度,费用21万元/年。而就近布置(≤50m)基本无额外损耗。

  2. 描述平谷项目全年制冷模式切换逻辑,以月份为单位说明。 参考答案:1-2月:完全自然冷却(室外湿球≤0°C);3月:混合模式(湿球0-8°C,自然冷却为主);4月:部分混合(湿球8-12°C,冷机辅助);5-9月:完全机械制冷(湿球>12°C);10月:部分混合;11-12月:自然冷却为主或完全自然冷却。

应用计算层(Q3,5题)

计算题

  1. 某数据中心,IT设备功耗5000 kW,制冷功耗1500 kW,UPS损耗200 kW,其他100 kW,计算PUE,并判断是否满足工信部≤1.3的要求。 答:总功耗=5000+1500+200+100=6800 kW;PUE=6800/5000=1.36;不满足工信部≤1.3要求,需进一步优化制冷(减少约300 kW)。

  2. 平谷项目若将UPS效率从94%提升到98%(采用ECO模式,50%机柜适用),IT功耗43,776 kW,计算节省的功耗和年节电量(按0.7元/度计算节省费用)。 答:

    • 原UPS损耗(100%):43776×(1-0.94)/0.94 = 2793 kW
    • ECO模式UPS损耗:43776×50%×(1-0.98)/0.98 = 447 kW
    • 双变换UPS损耗(50%):43776×50%×(1-0.94)/0.94 = 1397 kW
    • 节省 = 2793 - (447+1397) = 949 kW
    • 年节电:949×8760 = 8,313,240 kWh ≈ 831万度/年
    • 节省费用:831万×0.7 = 582万元/年
  3. 北京某数据中心,冷冻水COP在机械制冷时为4.0,自然冷却时制冷系数相当于COP=20(仅水泵/风机耗电)。全年自然冷却3600h,机械制冷5160h,IT功耗20,000 kW,计算全年制冷耗电量。 答:

    • 机械制冷耗电:20000/4.0 × 5160 = 25,800,000 kWh
    • 自然冷却耗电:20000/20 × 3600 = 3,600,000 kWh
    • 全年制冷总耗电:25.8 + 3.6 = 29.4 百万 kWh = 2940万度
  4. 若某数据中心IT功耗30,000 kW,要将PUE从1.5降到1.25,需要减少多少非IT能耗(kW)?减少后非IT系统总功耗是多少? 答:

    • 原非IT能耗:30000×(1.5-1) = 15,000 kW
    • 目标非IT能耗:30000×(1.25-1) = 7,500 kW
    • 需减少:15,000 - 7,500 = 7,500 kW(需要减少50%的非IT能耗!)
    • 优化后非IT系统总功耗:7,500 kW
  5. 平谷项目PUE从1.365优化到1.20,IT功耗43,776 kW,计算:(1)年节电量;(2)以北京电价0.65元/度计算年节约电费;(3)折合减少多少吨CO₂(北京电网因子0.581 kgCO₂/kWh)。 答:

    • 总功耗(PUE1.365):43776×1.365 = 59,754 kW
    • 总功耗(PUE1.20):43776×1.20 = 52,531 kW
    • 节省功耗:59,754 - 52,531 = 7,223 kW
    • 年节电:7223×8760 = 63,273,480 kWh ≈ 6327万度/年
    • 年节约电费:6327万×0.65 = 4113万元/年
    • 减少CO₂:6327万度 × 0.581 kg/度 = 36,759,870 kg ≈ 3.68万吨 CO₂/年

速记卡(Day 22 核心记忆点)

╔═══════════════════════════════════════════════════════════╗
║          Day 22 速记卡:PUE测算与能效设计                  ║
╠═══════════════════════════════════════════════════════════╣
║  PUE公式:总用电 / IT用电 = 1 + 非IT/IT                  ║
║                                                           ║
║  平谷项目基础数据(80%利用率):                            ║
║    IT功耗:9120×6×80% = 43,776 kW = 43.8 MW              ║
║    初始估算PUE:1.365                                      ║
║    优化目标PUE:≤1.20                                     ║
║                                                           ║
║  制冷系统是最大非IT能耗(占非IT的73%)!                    ║
║                                                           ║
║  四大节能策略(按效果排序):                               ║
║  1. 提高冷冻水温度 7°C→12°C:节省冷机能耗 30%             ║
║  2. 冷热通道封闭:综合节能 20-35%                          ║
║  3. 变频控制:系统整体节能 5-10%                           ║
║  4. UPS ECO模式:UPS损耗降低 80%(适用部分机柜)            ║
║                                                           ║
║  北京自然冷却:约 3500-4000 小时/年 ≈ 40% 时间             ║
║  自然冷却触发:室外湿球温度 ≤ 8°C(供水12°C设计)           ║
║                                                           ║
║  政策红线:工信部新建数据中心 PUE ≤ 1.3                    ║
║  先进水平:PUE ≤ 1.25(绿色数据中心四星)                  ║
║                                                           ║
║  年耗电(PUE1.20):4.60亿度  年碳排:26.7万吨CO₂          ║
╚═══════════════════════════════════════════════════════════╝

本章总结

知识点核心数字设计意义
平谷IT功耗43.8 MWPUE计算基准
初始PUE估算1.365不满足工信部要求
优化目标PUE≤1.20先进数据中心水平
制冷占非IT能耗73%节能优化重点在制冷
冷冻水温提升节能30%最易实现的节能措施
北京自然冷却3500-4000h/年约40%时间免机械制冷
工信部要求PUE≤1.3政策合规底线
年节电(PUE1.365→1.20)6327万度4113万元/年节约

下一节预告:M5-04 智算中心特殊规划要点——GPU服务器≠CPU服务器,从6kW/柜到60kW/柜的跨越,液冷、高速网络、智能运维,平谷项目B2楼的完整规划方案。


文件版本:v1.0 | 生成日期:2026-02-19 | 适用标准:GB50174-2017 / 工信部绿色数据中心评价要求 / The Green Grid PUE白皮书