M3-01:制冷原理与方案对比
模块3 / Day 11 难度:★★★☆☆(中等,从零建立制冷知识体系) 学习目标:理解数据中心制冷的底层物理原理,掌握风冷/水冷精密空调的工作差异,熟悉气流组织与自然冷却策略,并能为平谷项目选择合理的制冷方案。 预计学习时间:3~4小时(含诊断题练习)
一、数据中心为什么需要制冷?
1.1 一个最简单的类比
你有没有用过笔记本电脑放在腿上打游戏?玩了十分钟,大腿被烫得受不了——这就是计算产生的热量。
现在想象一下:把9120台这样的"发热笔记本"塞进一栋楼里,每台的发热功率不是几十瓦而是6000瓦(6kW)。如果不做任何散热处理,这栋楼在几分钟内就会变成一个烤箱,所有设备将因过热而宕机甚至烧毁。
这就是数据中心制冷存在的根本原因:把IT设备产生的热量,持续、稳定、可靠地转移到室外。
1.2 热负荷来源详解
数据中心的热量不只来自IT设备,但IT设备是绝对主力。我们逐一拆解:
1.2.1 IT设备热负荷(占比95%以上)
IT设备是数据中心的"心脏",也是最大的热源。所有输入IT设备的电能,最终几乎100%转化为热能。
| 设备类型 | 单台典型功耗 | 发热说明 |
|---|---|---|
| 通用服务器(1U/2U) | 300~800W | CPU+内存+硬盘+风扇 |
| GPU服务器(4U,8卡) | 3000~6000W | GPU是主要发热源,单卡300~700W |
| 网络交换机(ToR) | 200~500W | 高速交换芯片发热 |
| 存储阵列 | 500~2000W | 大量硬盘+控制器 |
关键认知:电能守恒定律告诉我们——IT设备消耗的每一瓦电力,最终都会变成热量。一个6kW的机柜,就是一个持续输出6kW热量的"暖气片"。平谷项目9120个6kW机柜,总IT热负荷 = 9120 × 6 = 54,720 kW ≈ 54.7MW。这是一个惊人的数字。
1.2.2 照明热负荷(占比<1%)
数据中心机房照明通常采用LED灯具:
- 主机房照明功率密度:约 8~10 W/m²
- LED灯具的发热量约占其功耗的60~70%
- 相对于IT设备,照明热负荷几乎可以忽略
但在精确的制冷方案设计中,照明热负荷仍需计入总负荷。
1.2.3 人员热负荷(占比极小)
人体是一个约75~120W的恒温热源(取决于活动强度):
| 活动状态 | 人体散热量 |
|---|---|
| 静坐(监控室值班) | ~75W |
| 轻度活动(巡检) | ~100W |
| 中度活动(设备安装) | ~120W |
数据中心主机房平时几乎无人,偶尔有运维人员进出。因此人员热负荷在计算时通常取一个很小的定额值(如按同时在场3~5人估算)。
1.2.4 围护结构热负荷
围护结构(墙体、屋顶、地板)的传热取决于:
- 室内外温差
- 围护结构的热阻(保温性能)
- 日照辐射(屋顶和外墙)
计算公式:
Q围护 = K × A × ΔT
其中:
K = 围护结构传热系数(W/m²·K),保温越好K越小
A = 围护结构面积(m²)
ΔT = 室内外温差(K)
在数据中心中,围护结构热负荷通常只占总热负荷的1~3%。原因是:
- 数据中心建筑会做良好的保温设计
- 相对于IT设备的巨大发热量,围护结构传热微不足道
- 但在冬季,围护结构反而可能成为"散热通道"(室外比室内冷),有利于降低制冷能耗
1.2.5 热负荷汇总
| 热源 | 占比 | 平谷项目估算 |
|---|---|---|
| IT设备 | 95~98% | 54,720 kW |
| 照明 | <1% | ~200 kW |
| UPS/配电损耗 | 1~3% | ~1,500 kW(不在机房内,但影响总冷量需求) |
| 人员 | <0.1% | 可忽略 |
| 围护结构 | 1~3% | ~500 kW |
| 合计 | 100% | 约56,000~57,000 kW |
速记口诀:"九五IT一分灯,围护人员凑个整"——IT设备热负荷占95%以上,照明约1%,围护结构和人员凑个整数。
二、制冷的底层物理原理
2.1 热力学第二定律——制冷的理论基础
在解释空调怎么工作之前,我们需要理解一个关键的物理概念:
热量自发地从高温物体流向低温物体,永远不会反过来。
你把一杯热咖啡放在桌上,它会自然变凉——热量从咖啡(高温)流向周围空气(低温)。但你从来没有见过一杯冷水自动变热而周围空气变冷——这违反热力学第二定律。
那制冷是怎么实现的? 答案是:消耗外部能量(电能),强制把热量从低温处(机房内)搬运到高温处(室外)。 空调本质上是一个"热量搬运工",它不产生冷量,而是把不需要的热量搬到别的地方去。
2.2 蒸汽压缩制冷循环——空调的核心
全世界绝大多数空调(包括你家的分体空调和数据中心的精密空调)都基于同一个原理:蒸汽压缩制冷循环(Vapor-Compression Refrigeration Cycle)。
2.2.1 用生活类比理解
想象你刚洗完澡,皮肤上有水,站在一个有风的房间里——你会感觉很冷。为什么?因为皮肤上的水在蒸发,蒸发过程会吸收热量(汽化潜热),所以你觉得冷。
制冷循环就是把这个"蒸发吸热"的过程封闭在一个管路系统里,循环不断地进行。
2.2.2 四大组件详解
蒸汽压缩制冷循环由四个核心组件构成,制冷剂在这四个组件之间循环流动:
散热到室外(放热)
↑ ↑ ↑ ↑ ↑ ↑
┌──────────────────┐
│ ② 冷凝器 │ 高温高压气体 → 高温高压液体
│ (Condenser) │ (放热液化)
└────────┬─────────┘
│ 高温高压液体
▼
┌──────────────────┐
│ ③ 膨胀阀 │ 高温高压液体 → 低温低压液体
│(Expansion Valve)│ (节流降压)
└────────┬─────────┘
│ 低温低压液体
▼
┌──────────────────┐
│ ④ 蒸发器 │ 低温低压液体 → 低温低压气体
│ (Evaporator) │ (吸热汽化)
└────────┬─────────┘
│ 低温低压气体
↓ ↓ ↓ ↓ ↓ ↓
吸收机房热量
│
▼
┌──────────────────┐
│ ① 压缩机 │ 低温低压气体 → 高温高压气体
│ (Compressor) │ (压缩升温升压)
└────────┬─────────┘
│ 高温高压气体
▼
回到冷凝器...(循环往复)
逐步拆解:
① 压缩机(Compressor)——制冷系统的"心脏"
- 作用:把低温低压的制冷剂气体压缩成高温高压的气体
- 类比:自行车打气筒。当你快速按压气筒时,气筒底部会发热——这就是气体被压缩后温度升高
- 为什么需要压缩? 因为制冷剂从蒸发器出来时温度很低(如5°C),而室外温度可能是35°C。根据热力学第二定律,5°C的气体无法把热量传给35°C的空气。所以必须先把制冷剂压缩升温到比室外更高的温度(如50~60°C),这样热量才能从制冷剂流向室外空气
- 能耗:压缩机是制冷系统中耗电最大的组件,约占制冷系统总能耗的70~80%
- 数据中心常用类型:涡旋式(小型)、螺杆式(中大型)、离心式(大型冷水机组)
② 冷凝器(Condenser)——"散热器"
- 作用:让高温高压的制冷剂气体向外界散热,冷却液化为高温高压液体
- 类比:你呼出热气到冬天的玻璃窗上,热气遇到冷玻璃就凝结成水珠——冷凝器中的制冷剂也是类似的过程
- 两种散热方式:
- 风冷:用风扇吹室外空气经过冷凝器翅片散热(类似家用空调室外机)
- 水冷:用冷却水带走冷凝器的热量,再通过冷却塔把热量散发到大气中
③ 膨胀阀(Expansion Valve)——"减压阀"
- 作用:让高温高压液体通过一个很小的节流口,急剧膨胀降压,变成低温低压的液体(或气液混合物)
- 类比:你按住水管口让水变细,松开后水"嘶"地喷出来——气体膨胀会降温。喷雾瓶喷出来的气体是冷的,也是同样的原理(焦耳-汤姆逊效应)
- 关键数字:经过膨胀阀后,制冷剂温度可从约40°C骤降到2~7°C
④ 蒸发器(Evaporator)——"吸热器"
- 作用:低温低压的制冷剂在蒸发器中吸收机房的热量,蒸发为气体
- 类比:把酒精涂在手背上,酒精蒸发时手背感觉冰凉——蒸发吸热
- 在数据中心中:机房的热空气(通常30
35°C)经过蒸发器,热量被低温制冷剂吸收,空气被冷却到约1218°C送回机房 - 这就是制冷系统真正"干活"的地方——机房里你感觉到的"冷风"就是从蒸发器出来的
速记口诀:"压冷膨蒸,压高冷放,膨低蒸吸"
- 压(缩)→ 冷(凝)→ 膨(胀)→ 蒸(发),四个组件的顺序
- 压缩升高温,冷凝放出热,膨胀降低温,蒸发吸收热
2.3 制冷量与COP
2.3.1 制冷量
制冷量是指制冷系统单位时间内从被冷却空间转移走的热量,单位是kW(千瓦)或RT(冷吨,Refrigeration Ton)。
单位换算:1 RT ≈ 3.517 kW
冷吨的由来:1冷吨 = 在24小时内将1短吨(约907kg)0°C的冰融化所需的制冷能力。这是一个历史遗留的美制单位,在国际工程中仍广泛使用。
2.3.2 COP(能效比)
COP(Coefficient of Performance,性能系数) 是衡量制冷效率的核心指标:
COP = 制冷量 / 压缩机功耗
通俗理解:你花1度电,能搬走多少热量?COP越高,效率越好。
| 设备类型 | 典型COP范围 | 含义 |
|---|---|---|
| 家用分体空调 | 2.5~3.5 | 1kW电能搬走2.5~3.5kW热量 |
| 风冷精密空调 | 3.0~4.0 | 数据中心常用 |
| 水冷精密空调 | 4.0~6.0 | 效率明显优于风冷 |
| 冷水机组+冷却塔 | 5.0~7.0 | 大型数据中心首选 |
| 理想卡诺循环(理论极限) | 8~12(视温差而定) | 永远达不到,但指明方向 |
关键数字:水冷的COP约为风冷的1.5~2倍,这是大型数据中心选择水冷方案的核心原因之一。
三、精密空调:CRAC vs CRAH
3.1 为什么数据中心不用普通空调?
你家的柜式空调能不能用在数据中心?绝对不行,原因包括:
| 对比维度 | 舒适性空调(家用/商用) | 精密空调(数据中心专用) |
|---|---|---|
| 温控精度 | ±2~3°C | ±0.5~1°C |
| 湿度控制 | 无专门控制 | 有加湿/除湿功能 |
| 送风方式 | 上方出风,覆盖人体区域 | 下送风或前送风,覆盖机柜进风面 |
| 显热比 | 0.6~0.7(大量制冷量用于除湿) | 0.9~1.0(几乎全部用于降温) |
| 运行时间 | 间歇运行(到温度后停机) | 7×24连续运行 |
| 冗余设计 | 无 | 支持N+1、2N冗余 |
| 风量 | 小 | 大风量(每kW冷量配更多风) |
| 过滤 | 基本过滤 | 高效过滤(MERV 8+) |
| 设计寿命 | 5~8年 | 10~15年 |
显热比(SHR, Sensible Heat Ratio) 是一个关键概念:
- 显热:只改变温度不改变湿度的热量(我们想去除的)
- 潜热:改变湿度(除湿/加湿)消耗的能量
- 显热比 = 显热 / 总热量
- 数据中心几乎不产生水蒸气,热负荷几乎全是显热,所以需要高显热比的空调
- 家用空调显热比低,大量制冷量被"浪费"在除湿上
3.2 CRAC:机房专用空调(Computer Room Air Conditioner)
CRAC 是自带压缩机的精密空调,内部包含完整的制冷循环系统。
工作原理:
机房热空气 → [CRAC机组内部]
│
├─ 蒸发器(吸热,冷却空气)
├─ 压缩机(压缩制冷剂)
├─ 冷凝器(散热)← 分为风冷和水冷两种
└─ 膨胀阀(降压)
│
冷却后的空气 ← [送回机房]
风冷CRAC:
┌─────────────────────────────────────────┐
│ 室 外 │
│ ┌──────────────────┐ │
│ │ 风冷冷凝器 │ ← 风扇吹风散热 │
│ │ (室外机) │ │
│ └────────┬─────────┘ │
│ │ 制冷剂管路 │
└──────────────┼──────────────────────────┘
│
┌──────────────┼──────────────────────────┐
│ │ 室 内 │
│ ┌────────┴─────────┐ │
│ │ CRAC机组 │ │
│ │ ┌──────────────┐ │ │
│ │ │ 压缩机 │ │ │
│ │ │ 膨胀阀 │ │ │
│ │ │ 蒸发器 │ │ ← 机房热回风 │
│ │ └──────────────┘ │ → 冷风送出 │
│ └──────────────────┘ │
└─────────────────────────────────────────┘
水冷CRAC:
- 冷凝器侧不是用风扇散热,而是用冷却水回路带走热量
- 冷却水最终通过冷却塔(Cooling Tower)散热到大气
- COP比风冷CRAC更高,因为水的导热能力远强于空气
CRAC的典型参数:
| 参数 | 典型值 |
|---|---|
| 单台制冷量 | 30~100 kW |
| 送风温度 | 12~18°C |
| 回风温度 | 30~35°C |
| 风冷COP | 3.0~4.0 |
| 水冷COP | 4.0~5.0 |
| 适用规模 | 中小型机房(<500kW IT负荷) |
3.3 CRAH:机房专用空气处理机(Computer Room Air Handler)
CRAH 本身不含压缩机,它只有风机和换热盘管(冷冻水盘管)。制冷功能由远端的冷水机组(Chiller) 提供。
工作原理:
机房热空气 → [CRAH机组内部]
│
└─ 冷冻水盘管(冷冻水吸热,冷却空气)
│
冷却后的空气 ← [送回机房]
冷冻水来自哪里? → 来自冷水机组(Chiller)
冷水机组在哪里? → 在制冷机房(独立的设备间)
完整的CRAH系统架构:
┌────────────────────────────────────────────────────────┐
│ 完整的冷冻水系统 │
│ │
│ ┌──────────┐ 冷冻水 ┌──────────┐ 冷却水 │
│ │ CRAH │←───────────│ 冷水机组 │←──────────┐ │
│ │(机房内) │ 7~12°C │ (Chiller) │ 32~37°C │ │
│ │ │───────────→│(制冷机房)│──────────→│ │
│ └──────────┘ 12~18°C └──────────┘ 26~32°C │ │
│ │ │
│ ┌──────────────────┐ │ │
│ │ 冷却塔 │←┘ │
│ │ (Cooling Tower) │ │
│ │ 散热到大气 │ │
│ └──────────────────┘ │
└────────────────────────────────────────────────────────┘
温度示意(典型设计值):
- 冷冻水供水温度:7°C(从冷水机组出来)
- 冷冻水回水温度:12~14°C(从CRAH回来,吸了机房的热)
- 冷却水供水温度:32°C(从冷却塔出来)
- 冷却水回水温度:37°C(从冷水机组出来,带着冷冻水的热量)
CRAH的典型参数:
| 参数 | 典型值 |
|---|---|
| 单台制冷量 | 50~200+ kW |
| 送风温度 | 15~20°C |
| 回风温度 | 30~38°C |
| 冷冻水供水温度 | 7~12°C |
| 适用规模 | 中大型数据中心(>500kW IT负荷) |
3.4 CRAC vs CRAH 全面对比
| 对比维度 | CRAC(自带压缩机) | CRAH(冷冻水盘管) |
|---|---|---|
| 内部构造 | 含压缩机+蒸发器+膨胀阀 | 只有风机+冷冻水盘管 |
| 冷源 | 自身(自带制冷循环) | 外部冷水机组(Chiller) |
| COP | 3.0~5.0 | 系统COP 5.0~7.0 |
| 单台冷量 | 30~100kW | 50~200+kW |
| 适用规模 | 中小型(<500kW IT负荷) | 大型(>500kW IT负荷) |
| 占地面积 | 较大(每台有压缩机) | 较小(压缩机集中在制冷机房) |
| 故障影响 | 单台故障只影响对应区域 | Chiller故障可能影响多个CRAH |
| 维护复杂度 | 分散维护(每台有压缩机) | 集中维护(压缩机在制冷机房) |
| 初期投资 | 较低 | 较高(需建冷水机组+冷却塔+管路) |
| 运行能耗 | 较高 | 较低(集中制冷效率高) |
| 自然冷却兼容 | 较难实现 | 容易实现(加装板换或干冷器) |
| 平谷项目适用性 | 不适合(规模太大) | 首选方案 |
关键结论:对于平谷项目这种54MW级IT负荷的超大规模数据中心,CRAH + 冷水机组是唯一合理的选择。CRAC方案在这种规模下的能效劣势和管理复杂度都不可接受。
3.5 平谷项目对标:为什么选CRAH + 冷水机组?
决策逻辑链:
平谷总IT负荷 ≈ 54.7MW
│
▼
需要总制冷量 ≈ 60MW+(含余量和辅助热负荷)
│
▼
如果用CRAC:需要600~2000台CRAC → 管理噩梦,能效低
如果用CRAH+Chiller:需要约60~100台CRAH + 10~20台大型冷水机组 → 集中管理,能效高
│
▼
选择CRAH + 离心式冷水机组方案
🔖 诊断问题 3.1
- Q1(记忆层):CRAC和CRAH的核心区别是什么?哪个自带压缩机?
- Q2(理解层):为什么CRAH系统的COP比CRAC高?从物理角度解释。
- Q3(应用层):如果一个数据中心只有50个机柜、总IT负荷300kW,你会推荐CRAC还是CRAH?为什么?
四、气流组织设计
4.1 为什么气流组织如此重要?
制冷系统产生了冷风,但如果冷风没有高效地送到服务器进风口、热风没有顺利回到空调回风口,那再好的制冷设备也是浪费。
一个形象的类比:你在房间里开了空调,但是把冷风口对着已经凉快的角落吹,而人坐在最热的角落——你感觉空调根本不管用。这就是气流组织不良的数据中心的现实写照。
气流组织的核心目标:让冷风精准地到达服务器进风口,让热风快速地回到空调,不让冷热气流混合。
4.2 送风方式:上送下回 vs 下送上回
4.2.1 下送上回(最常见)
原理:冷风从架空地板下方通过穿孔地板砖向上送出,经过服务器后变成热风上升,从天花板区域被空调回风口吸入。
┌────────── 回风天花板 ──────────┐
│ ↑ 热风 ↑ ↑ 热风 ↑ ↑ 热风 │
│ │
│ ┌──┐ ┌──┐ ┌──┐ ┌──┐ │
│ │机│ │机│ │机│ │机│ │
CRAH ←─┤ │柜│ │柜│ │柜│ │柜│ │
回风口 │ │ │ │ │ │ │ │ │ │
│ └──┘ └──┘ └──┘ └──┘ │
│ ↑ ↑ ↑ ↑ │
│ 冷风 冷风 冷风 冷风 │
├────────── 架空地板 ──────────────┤
│ → 冷风通道(架空地板下方) → │
│ ← 来自CRAH送风口 ← │
└────────────────────────────────┘
优点:
- 利用热空气自然上浮的物理特性(热胀冷缩,热空气密度低自然上升)
- 架空地板下的静压箱可以均匀分配冷风
- 业界最成熟、应用最广泛的方案
缺点:
- 架空地板需要一定高度(通常400~800mm),增加建筑层高
- 地板下布线和管路可能阻碍气流
- 冷风在上升过程中可能被热风"短路"
4.2.2 上送下回
原理:冷风从天花板送出,热风从地板回风口回到空调。
适用场景:
- 不适合架空地板的特殊建筑
- 高密度机柜区域的补充制冷
- 部分列间空调(InRow Cooling)采用这种方式
4.2.3 对比表
| 对比维度 | 下送上回 | 上送下回 |
|---|---|---|
| 物理合理性 | ★★★★★(符合热升冷降) | ★★★(逆自然对流) |
| 应用占比 | >80% | <20% |
| 架空地板 | 需要 | 不需要 |
| 适用场景 | 通用型数据中心 | 特殊场景 |
| 平谷项目 | 采用此方案 | — |
4.3 冷热通道封闭
4.3.1 问题的本质:冷热气流混合
在没有任何封闭措施的传统机房中,冷风和热风会在机柜上方和两端自由混合:
传统布局(无封闭)——冷热混合严重
热风 → ← 热风
↑ ↑
┌──┐ ┌──┐ ┌──┐ ┌──┐
│机│ │机│ │机│ │机│
│柜│ │柜│ │柜│ │柜│
│前│ │后│ │前│ │后│
└──┘ └──┘ └──┘ └──┘
↑ ↑
冷风 冷风 ← 从架空地板上来
问题:机柜后排的热风绕过机柜顶部,
混入了前排冷通道,导致进风温度升高!
冷热混合的后果:
- 服务器进风温度升高 → 需要送更冷的风 → 制冷能耗增加
- 温度不均匀 → 部分机柜过热、部分机柜过冷
- 制冷效率可能下降20~40%
4.3.2 解决方案:冷通道封闭 vs 热通道封闭
冷通道封闭(Cold Aisle Containment, CAC):
┌──── 封闭顶板 ────┐
│ 冷 通 道 │
│ │
│ ┌──┐ ┌──┐ │
│ │机│ │机│ │
│ │柜│ │柜│ │
│ │前│ │前│ │
│ └──┘ └──┘ │
│ ↑ ↑ ↑ │
│ 冷风 冷风 冷风 │
└──── 架空地板 ────┘
→ 封闭门板阻止热风进入冷通道
→ 冷通道内温度均匀,约18~25°C
→ 热风排到开放的热通道/机房大空间
热通道封闭(Hot Aisle Containment, HAC):
┌──── 封闭顶板(接回风管道)────┐
│ 热 通 道 │
│ ↑ ↑ ↑ │
│ ┌──┐ ┌──┐ │
│ │机│ │机│ │
│ │柜│ │柜│ │
│ │后│ │后│ │
│ └──┘ └──┘ │
│ → 热风被封闭收集 → │
└──── 直接回到CRAH回风口 ────────┘
→ 机房大空间就是冷通道,温度均匀约18~25°C
→ 热风被"关起来",通过顶部回风管道送回CRAH
4.3.3 CAC vs HAC 对比
| 对比维度 | 冷通道封闭(CAC) | 热通道封闭(HAC) |
|---|---|---|
| 封闭对象 | 冷通道(机柜前面对面) | 热通道(机柜背面对背面) |
| 机房大空间温度 | 混合温度(25~35°C) | 低温(18~25°C) |
| 人员舒适度 | 较差(机房大空间偏热) | 好(机房大空间凉爽) |
| 消防兼容性 | 较好 | 需注意封闭空间内的烟感探测 |
| CRAH回风温度 | 较低(混合后的温度) | 较高(纯热风,35~45°C) |
| CRAH效率 | 一般 | 更高(回风温差大,换热效率高) |
| 自然冷却效果 | 一般 | 更好(回风温度高→更容易用自然冷却) |
| PUE影响 | 改善明显(比无封闭) | 改善更大 |
| 适用场景 | 中小型机房改造 | 新建大型数据中心 |
4.3.4 平谷项目为什么选择热通道封闭(HAC)?
核心原因分析:
-
能效优势:HAC让CRAH的回风温度更高(35
45°C vs CAC的2530°C),根据热力学原理,温差越大换热效率越高,CRAH的制冷效率提升10~15%。 -
自然冷却友好:北京平谷冬季气温可低至-15°C,回风温度越高,能利用自然冷却的时间窗口越长。HAC方案下,当室外温度低于约15°C时就可以启动自然冷却;而CAC方案可能需要室外温度低于10°C才行。
-
运维体验:机房大空间温度保持在舒适的18~25°C,运维人员不需要穿特殊衣服就能在机房工作。
-
新建项目优势:平谷是全新建设的项目,可以从设计阶段就规划热通道封闭的结构(封闭顶板、回风管道等),不存在改造困难。
-
规模效应:9120个机柜的超大规模下,HAC带来的每1%能效提升,对应的年度电费节省可达百万元级别。
速记口诀:"热封高效冷封简,新建大型选热封"
- 热通道封闭效率更高,冷通道封闭实施更简单
- 新建的大型数据中心优选热通道封闭
🔖 诊断问题 4.1
- Q1(记忆层):冷通道封闭和热通道封闭分别封闭的是机柜的哪一面?
- Q2(理解层):为什么热通道封闭比冷通道封闭更有利于自然冷却?
- Q3(应用层):如果一个已有的数据中心要改造封闭通道,CAC和HAC哪个施工难度更低?为什么?
五、自然冷却(Free Cooling)
5.1 什么是自然冷却?
核心概念:当室外温度足够低时,可以利用室外冷空气或冷水直接给数据中心降温,部分或全部关闭压缩机,从而大幅降低制冷能耗。
生活类比:冬天你在家里觉得热,打开窗户让冷风吹进来,不用开空调——这就是最原始的"自然冷却"。
为什么自然冷却如此重要?
| 制冷方式 | 压缩机是否运行 | 能耗 |
|---|---|---|
| 机械制冷(传统) | 全负荷运行 | 100% |
| 部分自然冷却 | 低负荷运行 | 30~60% |
| 完全自然冷却 | 关闭 | 5~10%(仅水泵/风机能耗) |
关键数字:压缩机能耗约占制冷系统总能耗的70~80%。如果能关闭压缩机,制冷能耗可以下降80~90%。
5.2 三种自然冷却技术
5.2.1 风侧自然冷却(Airside Free Cooling)
原理:直接引入室外冷空气进入机房,排出机房热空气。
室外冷空气 ──→ 过滤 ──→ 机房(冷却服务器) ──→ 排出热空气
优点:最简单,效率最高
缺点:室外空气质量影响大(灰尘、湿度、污染物)
需要大量新风管道,占空间
在北京这样的城市,雾霾和沙尘是严重问题
平谷适用性:不太适合。北京地区空气质量不稳定(冬春季雾霾和沙尘),直接引入室外空气会污染IT设备。
5.2.2 水侧自然冷却(Waterside Free Cooling)——干冷器方案
原理:利用室外低温空气通过干冷器(Dry Cooler) 直接冷却冷冻水,不启动冷水机组的压缩机。
正常模式(夏季):
冷冻水 → CRAH(吸热) → 冷水机组(压缩机制冷) → 冷冻水
自然冷却模式(冬季):
冷冻水 → CRAH(吸热) → 干冷器(室外冷空气冷却) → 冷冻水
↑
不经过压缩机!
过渡模式(春秋):
干冷器预冷 + 冷水机组补冷
干冷器(Dry Cooler) 的工作原理非常简单:
┌──────────────────────────────┐
│ 干冷器 │
│ │
│ 热冷冻水 → 翅片管换热器 → 冷冷冻水 │
│ ↑ ↑ ↑ ↑ │
│ 室外冷空气 │
│ (风扇驱动) │
└──────────────────────────────┘
本质上就是:一个大型的"散热器",用室外冷风吹过翅片管,
把管内的冷冻水冷却下来。和汽车水箱散热器原理完全一样。
优点:
- 不引入室外空气,避免污染问题
- 与现有冷冻水系统高度兼容
- 平滑切换:机械制冷 → 混合模式 → 完全自然冷却
平谷适用性:★★★★★ 非常适合
5.2.3 间接蒸发冷却(Indirect Evaporative Cooling, IEC)
原理:利用水蒸发吸热的原理,在一个气-气换热器中,室外空气先经过湿帘/喷淋蒸发降温,再通过换热器间接冷却机房回风,两股气流不直接接触。
┌──────────────────────────────────────┐
│ 间接蒸发冷却机组(IEC) │
│ │
│ 机房热回风 → ─┐ │
│ │ │
│ 换热器(隔板换热) │
│ │ │
│ 冷却后空气 ← ─┘ │
│ │
│ 室外空气 → 喷淋/湿帘蒸发降温 → 换热器 │
│ (一次侧) (蒸发吸热降温) │
│ → 排出室外 │
└──────────────────────────────────────┘
关键:机房空气和室外空气不直接接触!
只通过换热器交换热量。
优点:
- 不引入室外空气
- 蒸发冷却可以把一次侧空气降到接近湿球温度,冷却效果好
- 即使室外干球温度较高(如30°C),只要湿球温度低,仍可工作
缺点:
- 消耗水资源(蒸发用水)
- 设备体积大
- 在严寒地区冬季有防冻问题
平谷适用性:可作为辅助方案。北京地区干燥季节(秋冬)湿球温度低,蒸发冷却效果好;但夏季高湿时效率下降。
5.3 北京平谷的气候条件与自然冷却
北京气候数据(关键参数):
| 参数 | 夏季(7-8月) | 过渡季(4-5月/10-11月) | 冬季(12-2月) |
|---|---|---|---|
| 日均温度 | 25~35°C | 10~20°C | -10~5°C |
| 极端高温 | 40°C+ | — | — |
| 极端低温 | — | — | -15°C |
| 相对湿度 | 60~80% | 30~50% | 20~40% |
自然冷却可用时间估算(水侧自然冷却):
假设冷冻水供水温度设定为12°C(提高供水温度以增加自然冷却时间),当室外温度低于约7~8°C时可以启动完全自然冷却,当室外温度低于约12~15°C时可以启动部分自然冷却。
| 季节 | 月份 | 自然冷却模式 | 约占全年比例 |
|---|---|---|---|
| 夏季 | 6~8月 | 纯机械制冷 | 25% |
| 过渡季 | 4 | 部分自然冷却 | 33% |
| 冬季 | 11~3月 | 完全/大部分自然冷却 | 42% |
关键数字:在北京,全年约40~50%的时间可以使用完全或部分自然冷却,可使年均PUE降低0.1~0.2。这是平谷项目实现PUE≤1.25的关键策略之一。
速记口诀:"四成免费冷,北京冬最爽"——北京约四成时间可用自然冷却,冬季是自然冷却的黄金期。
🔖 诊断问题 5.1
- Q1(记忆层):说出三种自然冷却技术的名称。哪种最适合北京?
- Q2(理解层):为什么水侧自然冷却比风侧自然冷却更适合北京平谷?(至少两个原因)
- Q3(应用层):如果平谷项目将冷冻水供水温度从7°C提高到12°C,对自然冷却可用时间有什么影响?对IT设备有什么风险?
六、关键规范条文
6.1 GB 50174-2017 温湿度要求
A级数据中心主机房环境要求(第5.1条):
| 参数 | 要求 | 条文号 |
|---|---|---|
| 开机温度 | 18~27°C | 5.1.1 |
| 停机温度 | 5~40°C | 5.1.1 |
| 相对湿度 | ≤60%,露点≤17°C | 5.1.2 |
| 温度变化率 | <5°C/h,不得结露 | 5.1.3 |
制冷系统相关要求:
| 要求 | 条文说明 | 条文号 |
|---|---|---|
| A级冗余 | 制冷系统应采用N+1冗余 | 8.4.2 |
| 独立冷源 | A级应有两个独立冷源 | 8.4.3 |
| 不间断制冷 | A级制冷系统应具备不间断运行能力 | 8.4.4 |
| 冷热通道隔离 | 宜采用冷热通道隔离措施 | 8.4.8 |
| 架空地板 | 采用下送风时架空地板高度不宜小于400mm | 8.4.9 |
6.2 ASHRAE TC 9.9 热量指南
ASHRAE(American Society of Heating, Refrigerating and Air-Conditioning Engineers,美国暖通空调工程师学会)的TC 9.9委员会发布的《Thermal Guidelines for Data Processing Environments》是数据中心温湿度控制的国际权威参考。
环境分级(A1~A4):
| 环境级别 | 推荐温度范围 | 允许温度范围 | 典型设备 |
|---|---|---|---|
| A1 | 18~27°C | 15~32°C | 企业级服务器、存储 |
| A2 | 18~27°C | 10~35°C | 体积服务器、存储 |
| A3 | 18~27°C | 5~40°C | 工作站、台式机 |
| A4 | 18~27°C | 5~45°C | 工业计算机 |
| B | — | 5~35°C | 办公环境设备 |
| C | — | 5~40°C | 定制冷却方案 |
关键解读:
- 所有级别的推荐温度范围都是18~27°C——这与GB 50174完全一致
- 允许范围从A1到A4越来越宽——A4设备允许在5~45°C下运行
- 利用允许范围可以降低PUE——如果IT设备是A2级,允许进风温度到35°C,就可以提高冷冻水温度、增加自然冷却时间
- 平谷项目的GPU服务器大多属于A1~A2级——推荐范围18
27°C,允许范围1535°C
速记口诀:"推荐一八二七全一样,允许越宽级别越高"
6.3 与平谷项目的对标
| 规范要求 | 平谷项目设计对策 |
|---|---|
| 温度18~27°C | 送风温度控制在18~20°C,回风温度≤35°C |
| 湿度≤60%RH | 配备加湿/除湿功能,设定值40~55%RH |
| 制冷N+1 | 每组冷水机组N+1配置,CRAH同样N+1 |
| 两个独立冷源 | 双路冷冻水环路,互为备用 |
| 冷热通道隔离 | 采用热通道封闭(HAC) |
| 架空地板≥400mm | 设计600mm架空地板 |
🔖 诊断问题 6.1
- Q1(记忆层):GB 50174要求A级数据中心开机温度范围是多少?
- Q2(理解层):ASHRAE A1的推荐范围和允许范围有什么区别?在实际工程中如何利用允许范围?
- Q3(应用层):如果平谷项目的GPU服务器供应商标称进风温度允许范围是15~35°C,你会把冷冻水供水温度设定为多少?为什么?
七、平谷项目制冷方案综合对标
7.1 项目核心参数回顾
| 参数 | 数值 |
|---|---|
| 总机柜数 | 9120个 |
| 单机柜功率 | 6kW |
| 总IT负荷 | 54.7MW |
| 建筑数量 | 6栋 |
| 每栋机柜数 | 约1520个 |
| 每栋IT负荷 | 约9.1MW |
| 气流组织 | 热通道封闭(HAC) |
| 等级要求 | A级(GB 50174) |
7.2 6kW/柜 → 风冷还是水冷?
功率密度分级(行业惯例):
| 功率密度 | 分级 | 推荐制冷方案 |
|---|---|---|
| <3 kW/柜 | 低密度 | 风冷CRAC即可 |
| 3~8 kW/柜 | 中密度 | CRAH + 冷水机组(风冷/水冷) |
| 8~15 kW/柜 | 高密度 | CRAH + 水冷冷水机组 + 列间空调 |
| 15~30 kW/柜 | 超高密度 | 风冷+辅助液冷(背板/门板) |
| >30 kW/柜 | 极高密度 | 液冷为主(冷板/浸没) |
平谷项目6kW/柜处于中密度区间,CRAH + 冷水机组是标准方案。
7.3 完整制冷架构推荐
┌────────────────────────────────────────────────────────┐
│ 平谷项目单栋楼制冷系统架构 │
│ │
│ ┌─── 机房层(主机房)────────────────────────────┐ │
│ │ │ │
│ │ ┌──────┐ ┌──────┐ ┌──────┐ ┌──────┐ │ │
│ │ │CRAH-1│ │CRAH-2│ │CRAH-3│ ... │CRAH-N│ │ │
│ │ └──┬───┘ └──┬───┘ └──┬───┘ └──┬───┘ │ │
│ │ │ 冷冻水环路(供回水管) │ │ │
│ └─────┼────────────────────────────────┼────────┘ │
│ │ │ │
│ ┌─────┼──── 制冷机房 ─────────────────┼────────┐ │
│ │ ▼ ▼ │ │
│ │ ┌──────────┐ ┌──────────┐ ┌──────────┐ │ │
│ │ │ 冷水机组-1│ │ 冷水机组-2│ │冷水机组-N+1│ │ │
│ │ │(Chiller) │ │(Chiller) │ │ (备用) │ │ │
│ │ └────┬─────┘ └────┬─────┘ └────┬─────┘ │ │
│ │ │ 冷却水环路 │ │ │ │
│ └───────┼──────────────┼──────────────┼─────────┘ │
│ ▼ ▼ ▼ │
│ ┌──── 室外设备区 ──────────────────────────────┐ │
│ │ ┌──────────┐ ┌──────────┐ ┌──────────┐ │ │
│ │ │ 冷却塔-1 │ │ 冷却塔-2 │ │ 干冷器 │ │ │
│ │ │ │ │ │ │(自然冷却)│ │ │
│ │ └──────────┘ └──────────┘ └──────────┘ │ │
│ └──────────────────────────────────────────────┘ │
└────────────────────────────────────────────────────────┘
冷冻水供水温度:7~12°C(视季节调整)
冷冻水回水温度:12~18°C
冷却水供水温度:26~32°C
冷却水回水温度:32~37°C
7.4 为什么平谷项目暂不需要液冷?
6kW/柜是一个关键分界点:
- 6kW/柜属于中密度,传统风冷CRAH方案完全能满足散热需求
- 风冷方案在6kW/柜以下的总拥有成本(TCO)通常低于液冷
- 液冷需要额外的管路基础设施、漏液检测系统、专业运维团队
- 但6kW是基于当前规划——如果未来升级到GPU高密机柜(20~40kW/柜),则必须考虑液冷(这将在M3-02中详细讨论)
八、速记卡汇总
🃏 卡片1:热负荷构成
IT设备:95%以上(唯一重要的热源)
照明+围护+人员:合计<5%
口诀:"九五IT一分灯,围护人员凑个整"
🃏 卡片2:制冷循环四组件
压缩机 → 冷凝器 → 膨胀阀 → 蒸发器
口诀:"压冷膨蒸"
功能:压高温 → 放出热 → 降低温 → 吸收热
口诀:"压高冷放,膨低蒸吸"
压缩机能耗占制冷总能耗 70~80%
🃏 卡片3:CRAC vs CRAH
CRAC:自带压缩机,COP 3~5,适合<500kW
CRAH:只有盘管+风机,需要外部Chiller,系统COP 5~7,适合>500kW
平谷54.7MW → 必须CRAH
口诀:"小CRAC大CRAH,有钱有量上冷水"
🃏 卡片4:通道封闭
冷通道封闭(CAC):封机柜前面,机房大空间偏热
热通道封闭(HAC):封机柜背面,机房大空间凉爽
HAC优势:回风温度高→换热效率高→自然冷却时间长→PUE更低
平谷选HAC
口诀:"热封高效冷封简,新建大型选热封"
🃏 卡片5:自然冷却
风侧:直接引室外空气→北京不适合(雾霾)
水侧/干冷器:室外冷却冷冻水→平谷首选
间接蒸发:蒸发降温间接换热→可辅助
北京约40~50%时间可自然冷却
口诀:"四成免费冷,北京冬最爽"
🃏 卡片6:温湿度规范
GB50174 A级:18~27°C,≤60%RH,露点≤17°C
ASHRAE A1推荐:18~27°C(与GB一致)
ASHRAE A1允许:15~32°C(更宽,利于节能)
口诀:"推荐一八二七全一样,允许越宽级别越高"
🃏 卡片7:COP数值速记
风冷CRAC:COP 3~4
水冷CRAC:COP 4~5
CRAH+Chiller系统:COP 5~7
口诀:"风三水四系统六"(取中值)
水冷COP约为风冷的1.5~2倍
九、综合诊断题
第一组:记忆层
D1-1:数据中心热负荷中,IT设备占比约为多少?
D1-2:蒸汽压缩制冷循环的四大组件按顺序是什么?
D1-3:GB 50174要求A级数据中心主机房开机温度范围是多少?
D1-4:COP的定义公式是什么?风冷精密空调的典型COP范围?
D1-5:北京地区全年大约有多少比例的时间可以使用自然冷却?
第二组:理解层
D1-6:为什么制冷循环中需要压缩机?如果去掉压缩机会怎样?(提示:从热力学第二定律角度分析)
D1-7:解释显热比(SHR)的概念。为什么数据中心需要高显热比的空调?
D1-8:热通道封闭方案中,CRAH的回风温度比冷通道封闭更高。这为什么反而有利于制冷效率?
D1-9:为什么提高冷冻水供水温度(如从7°C提高到12°C)能增加自然冷却的可用时间?
第三组:应用层
D1-10:你作为平谷项目的方案设计师,客户问你:"为什么不直接打开窗户引外面的冷空气进来制冷,省电又环保?"你如何回答?
D1-11:平谷项目单栋楼IT负荷约9.1MW。假设CRAH单台制冷量150kW,考虑N+1冗余,每栋楼至少需要多少台CRAH?写出计算过程。
D1-12:一位同事建议平谷项目全部采用CRAC(自带压缩机的精密空调)以简化系统。请从能效、管理复杂度、运维三个角度反驳。
诊断题参考答案
D1-1:约95%以上。IT设备消耗的电能几乎100%转化为热能。
D1-2:压缩机→冷凝器→膨胀阀→蒸发器(口诀:压冷膨蒸)。
D1-3:18~27°C(GB 50174-2017 第5.1.1条)。
D1-4:COP = 制冷量/压缩机功耗。风冷精密空调典型COP为3.0~4.0。
D1-5:约40~50%。
D1-6:根据热力学第二定律,热量自发地从高温流向低温。制冷剂从蒸发器出来时温度很低(如5°C),而室外温度可能很高(如35°C)。如果没有压缩机,制冷剂无法把热量传递给温度更高的室外空气。压缩机的作用是将制冷剂压缩升温到高于室外温度(如50~60°C),使热量能从制冷剂流向室外空气,完成"逆向搬运"。去掉压缩机等于回到自然冷却,只有室外温度低于机房温度时才有效。
D1-7:显热比SHR = 显热/总热量。显热只改变温度,潜热改变湿度。数据中心内几乎没有水蒸气产生,热负荷接近100%是显热。高显热比的精密空调(SHR 0.91.0)能把制冷量几乎全部用于降温;而家用空调SHR只有0.60.7,大量冷量被"浪费"在不必要的除湿上。
D1-8:换热器的换热效率与温差成正比(Q = k × A × ΔT)。HAC方案中回风温度3545°C,与冷冻水温度(712°C)的温差大,换热效率高;CAC方案回风温度只有25~30°C,温差小,换热效率低。此外,更高的回风温度意味着可以用更高的冷冻水温度,有利于提升冷水机组COP和增加自然冷却时间。
D1-9:自然冷却通过干冷器用室外空气冷却冷冻水。要冷却到7°C,需要室外温度远低于7°C(如低于23°C);而冷却到12°C,只需室外温度低于78°C。供水温度越高,"达标"的室外温度阈值越高,全年满足条件的天数越多,自然冷却可用时间就越长。
D1-10:参考回答:"理解您的出发点——利用自然冷风确实是最节能的思路。但在北京直接引入室外空气有三个严重问题:第一,北京冬春季雾霾和沙尘严重,颗粒物会沉积在服务器主板和CPU散热鳍片上,导致散热恶化和短路风险;第二,室外空气温湿度波动剧烈,无法满足GB 50174对温湿度精确控制的要求(1827°C,≤60%RH);第三,大量新风管道的占地面积和建设成本并不低。我们的方案是采用水侧自然冷却——利用干冷器用室外冷空气间接冷却冷冻水,室外空气不进入机房,既利用了自然冷源又保证了机房环境洁净可控。北京约4050%的时间可以使用自然冷却,节能效果同样显著。"
D1-11:计算过程:
- 单栋IT负荷:9.1MW = 9,100kW
- 制冷总负荷(含安全余量1.1倍):9,100 × 1.1 ≈ 10,010kW
- 所需CRAH台数(N):10,010 / 150 ≈ 67台(向上取整)
- N+1冗余:67 + 1 = 68台
- 实际工程中可能按区域分组,每组单独N+1,总数可能略多
D1-12:反驳要点:
- 能效:9.1MW/栋的负荷下,CRAC(COP 3
4)比CRAH+Chiller(COP 57)能效低40~50%。按每度电0.8元、年8760小时计算,单栋年制冷电费差异可达数百万元。 - 管理复杂度:如果用100kW的CRAC,每栋需要约100台,6栋共600台,每台有独立的压缩机需要维护。而CRAH方案的压缩机集中在十几台冷水机组中,管理点大幅减少。
- 运维:600台分散的压缩机意味着故障点更多,制冷剂泄漏风险更高,运维人力需求更大。集中式冷水机组更便于监控和维护,且更容易实施自然冷却策略。
本文件学习检查清单:
- 能默写制冷循环四大组件及其功能
- 能说清CRAC和CRAH的核心区别
- 能解释热通道封闭优于冷通道封闭的原因
- 能说出北京地区自然冷却的可用时间比例
- 能为平谷项目6kW/柜方案选型做出决策论证
- 能引用GB 50174和ASHRAE的温湿度要求数值