24小时故障咨询电话点击右边热线,客服在线解答故障号码:400-889-3660
液冷空调变频板故障(液冷空调变频板故障代码)-分类信息网

液冷空调变频板故障(液冷空调变频板故障代码)-分类信息网

更新: 生活服务•发布:2024-06-14•浏览次数:

本文目录一览

1.螺杆式制冷机组常见故障及处理

螺杆机组:

1、启动负荷大,不能启动或启动后立即停车的故障原因及补救方法:

1)能量调节未至零位,减载至零位。

2)压缩机与电极同轴度过大,重新校正同轴度。

3)压缩机内充满油或液体制冷剂,盘动压缩机联轴节,将机腔内积液排出。

4)压缩机内磨损烧伤,拆卸检修。

5)电源断电或电压过低(低于额定值10%),排除电路故障,按产品要求供电。

6)压力控制器或温度控制器调节不当,使触头常开,按要求调整触头位置。

7)压差控制器或热继电器断开后未复位,按下复位键。

8)电机绕组烧毁或短路,检修。

9)变压器、接触器、中间继电器线圈烧毁或触头接触不良,拆检、修复。

10)温度控制器调整不当或出故障不能打开电磁阀,调整温度控制器的调定值或更换温控器。

11)电控柜或仪表箱电路接线有误,检查、改正。

12)机组内部压力太高,连接均压阀。

2、压缩机在运转中突然停车怎么办?

1)吸气压力低于规定压力,应查明原因排除故障。

2)排气压力过高,使高压继电器动作。

3)温度控制器调的过小或失灵,调大控制范围,更换温控器。

4)电机超载使压差控制器或保险丝烧毁,排除故障更换保险丝。

5)油压过低使压差控制器动作,查明原因,排除故障。

6)控制电路故障,查明原因,排除故障。

7)仪表箱接线端松动,接触不良,查明后上紧。

8)油温过高,油温继电器动作,增加油冷却器冷却水量。

3、 机组震动过大的故障原因及补救方法:

1)机组地脚未紧固,塞紧调整垫铁,拧紧地脚螺栓。

2)压缩机与电机同轴度过大,重新校正同轴度。

3)机组与管道固有震动频率相近而共振,改变管道支撑点位置。

4)吸如过量的润滑油或液体制冷剂,停机,盘动联轴节联将液体排出。

4、运行中有异常声音的故障原因及补救方法:

1)压缩机内有异物,检修压缩机及吸气过滤器。

2)止推轴承磨损破裂,更换。

3)滑动轴承磨损,转子与机壳磨擦,更换滑动轴承检修。

4)联轴节的键松动,紧固螺栓或更换键。

5、排气温度过高的故障原因及补救方法:

1)冷凝器冷却水量不足,增加冷却水量。

2)冷却水温过高,开启冷却塔。

3)制冷剂充灌量过多,适量放出制冷剂。

4)膨胀阀开启过小,适当调节。

5)系统中存有空气(压力表指示明显跳动),排放空气。

6)冷凝器内传热管上有水垢,清除水垢。

7)冷凝器内传热管上有油膜,回收冷冻机油。

8)机内喷油量不足,调整喷油量。

9)蒸发器配用过小,更换。

10)热负荷过大,减少热负荷。

11)油温过高,增加油冷却器冷却水量(液氨量),降低油温。

12)吸气过热度过大,适当开大供液阀,增加供热量。

6、压缩机本体温度过高的故障原因及补救方法:

1)吸气温度过高,适当调大截流阀。

2)部件磨损造成摩擦部位发热,停车检查。

3)压力比过大,降低排气压力。

4)油冷却器能力不足,增加冷却水量(液氨量),降低油温。

5)喷油量不足,增加喷油量。

6)由于杂质等原因造成压缩机烧伤,停车检查。

7、 蒸发气温度过低的故障原因及补救方法:

1)制冷剂不足,添加制冷剂到规定值。

2)截流阀开启过小,适当调节。

3)截流阀出现脏堵或冰堵,清洗、修理。

4)干燥过滤器堵塞,清洗更换。

5)电磁阀未全打开或失灵,开启、更换。

6)蒸发器结霜太厚,开大膨胀阀。

8、油压过高的故障原因及补救方法:

1)油压调节阀开启度太小,适当增大开启度。

2)油压表损坏,指示错误,检修、更换。

3)油泵排出管堵塞,检修。

9、冷凝压力过高的故障原因及补救方法:

1)系统中空气含量过多,排放空气。

2)冷凝器冷却水量不足,加大冷却水量。

3)冷凝器传热面结垢,清洗。

4)冷却水温过高,开启冷却塔。

5)排气截止阀堵塞。

10、油温过高的故障原因及补救方法:

1)油冷却器效果下降,清除油冷却器传热面上的污垢,降低冷却水温或增大水量(液氨量)。

2)液冷系统安装不正确,不能保证充分供液、排气,检查系统。

11、油位上升的故障原因及补救方法:制冷剂溶于油内,关小截流阀,提高油温。

12、润滑油消耗量过大的故障原因及补救方法:

1)加油过多,放油到规定值。

2)奔油,查明原因,进行处理。

3)油分离器回油不佳,检查回油通道。

13、吸气压力过高的故障原因及补救方法:

1)截流阀开启过大或感温包未扎紧,关小截流阀正确捆扎。

2)制冷剂充灌过多,放出多余制冷剂。

3)系统中有空气,排放空气。

14、制冷量不足的故障原因及补救方法:

1)过滤器堵塞,清洗。

2)压缩机磨损后间隙过大,检修更换。

3) 却水量不足或水温过高,调整水量开启冷却塔。

4)蒸发器配用过小,减小热负荷或更换蒸发器。

5)蒸发器结霜太厚,定期溶霜。

6)膨胀阀开的过大或过小,按工况要求调整阀门开启度。

7)干燥过滤器堵塞,清洗。

8)截流阀脏堵或冰堵,清洗。

9)系统内有较多空气,排放空气。

10)制冷剂充罐量不足,添置规定值。

11)蒸发器内大量润滑油,回收冷冻机油。

12)电磁阀损坏,修复或更换。

13)膨胀阀感温包内流罐剂泄露,修复或更换。

14)冷凝器或贮液器的出液阀未开启或开启过小,适当开启出液阀。

15)制冷剂泄露过多,查出漏处,检修后添加制冷剂。

16)能量调节指示不正常,检修。

17)喷油量不足,检修油路、油泵,提高油量。

15、压缩机能量调节机构不动作的故障原因及补救方法:

1)电磁阀故障,检修或更换。

2)油管路或接头处堵塞,检修、清洗。

3)油活塞间隙大,检修或更换。

4)润滑或油活塞卡住,拆卸检修。

5)指示器故障,检修。

6)油压过低,调节油压调节阀。

16、 压缩机轴封漏油(允许值为6滴/分)的故障原因及补救方法:

1)轴封磨损过量,更换。

2)动环、静环平面度过大或擦伤,研磨,更换。

3)密封圈,O形环过松,过紧或变形,更换。

4)弹簧座、推环销钉装配不当,重新装配。

5)轴承弹簧弹力不足,更换。

6)轴封压盖处纸垫破损,更换。

7)压缩机与电机同轴度过大引起较大震动,重新校正同轴度。

17、停机时压缩机反转不停(反转几转属正常)的故障原因及补救方法:吸气止逆阀故障(如止逆阀卡住,弹簧弹性不足或止逆阀损坏),检修或更换。

18、压缩机运行中油压表指针振动的故障原因及补救方法:

1)油量不足,补充油。

2)油过滤器堵塞,清洗。

3)油泵故障,检修或更换。

4)油温过低,提高油温。

5)油泵吸入气体,查明原因进行处理。

6)油压调节阀动作不良,调整或拆修。

19、蒸发器压力或压缩机吸气压力不等的故障原因及补救方法:

1)吸气过滤器堵塞,清洗过滤器。

2)压力表故障,检修或更换。

3)压力传感元件故障,更换。

4)阀的操作错误,检查吸入系统。

5)管道堵塞,检查、清理。

20、机组奔油的故障原因及补救方法:

1)在正常情况下发生奔油主要是操作不当引起,注意操作。

2)油温过低,提高油温。

3)供液量过大,关小截流阀。

4)增栽过快,分几次增栽。

5)加油过多,放油到适量。

6)热负荷减小,增大热负荷或减小冷量。

螺杆盐水机组:

1、启动负荷大,不能启动后立即停车故障原因及补救方法:

1)能量调节未至0位,减载至0位。

2)压缩机与电机同轴度过大,重新校正同轴度。

3)压缩机内充满油或液体制冷剂,盘动压缩机连轴节,将机腔内积液排出。

4)压缩机内磨损烧伤,拆卸检修。

5)电源断电或电压低(低于额定值10%),排除电路故障,按产品要求供电。

6)压力控制器或温度控制器调节不当,使触头常开,按要求调整触头位置。

7)压差控制器或热继电器开后未复位,按下复位键。

8)电机绕组烧毁或短路,检修。

9)变位器、接触器、中间继电器线圈烧毁或触头接触不良,拆检、修复。

10)温度控制器调整不当或出故障不能打开电磁阀,调整温度控制器的调定值或更换温控器。

2、压缩机在运转中突然停机故障原因及补救方法:

1)吸气压力低于规定压力,查明原因,排除故障。

2)排气压力过高,使高压继电器动作,查明原因,排除故障。

3)温度控制器调的过小或失灵,调大控制范围更换温控器。

4)电机超载使热继电器动作或保险丝烧毁,排除故障,更换保险丝。

5)油压过低使压差控制器动作。查明原因,排除故障。

6)控制电路故障,查明原因,排除故障。

7)仪表箱接线端松动,接触不良,查明后上紧。

8)油温过高油温继电器动作,增加油处理器冷却水量。

3、机组振动过大故障原因及补救方法:

1)机组地脚未紧固,塞紧调整垫铁,拧紧地脚螺栓。

2)压缩机与电机同轴度过大,重新校正同轴度。

3)机组与管道固有振动频率相近而共振,改变管道支撑点位置。

4)吸入过量的润滑油或液体制冷剂,停机,盘动联轴节将液体排走。

4、机组运行中有异常声音故障原因及补救方法:

1)压缩机内有异物,检修压缩机及吸气过滤器。

2)止推轴承磨损破裂,更换。

3)滑动轴承磨损,转子与机壳摩擦,更换滑动轴承,检修。

4)联轴器的键松动,紧固螺栓或更换键。

5、排气温度过高故障原因及补救方法:

1)凝器冷却水量不足,增加冷却水量。

2)冷却水温过高,开启冷却塔。

3)制冷剂充灌量过多,适量放出制冷剂。

4)膨胀阀开启过小,适当调节。

5)系统中存有空气(压力表指针明显跳动),排放空阀。

6)冷却器内传热管上有水垢,清除水垢。

7)冷却器内传热管上有油膜,回收冷冻油。

8)机内喷油量不足,调整喷油量。

9)热负荷过大,减小热负荷。

10)油温过高,增加油处理器冷却水量,降低油温。

11)吸气过热度过大,适当开打供液阀,增加供液量。

6、蒸发温度过低故障原因及补救方法:

1)制冷量不足,添加制冷剂到规定量。

2)膨胀阀开启过小,适当调节。

3)膨胀阀出现脏堵或冰堵,清洗、修理。

4)干燥过滤器堵塞,更换。

5)电磁阀未全打开或失灵,开启、更换。

6)蒸发器结霜太厚,开大膨胀阀。

7、压缩机本机温度过热故障原因及补救方法:

1)吸气温度过高,适当调大节流阀。

2)部件磨损造成摩擦部位发热。停车检查。

3)压力比过大,降低排气压力。

4)油处理器冷却能力不足,增加冷却水量,降低油温。

5)喷油量不足,增加喷油量。

6)由于杂质等原因造成压缩机烧伤,停车检查。

8、油压过高故障原因及补救方法:

1)油压调节阀开启度太小,适当增大开启度。

2)油压表损坏,指示错误,检修、更换。

3)油泵排出管堵塞,检修。

9、 油压过低故障原因及补救方法:

1)油压调节阀开启过大,适当调节。

2)油量不足(未达到规定油位),添加冷冻机油到规定量。

3)油路管道或油过滤器堵塞,清洗。

4)油泵故障,检查、修理。

5)油泵转子磨损,检修、更换。

6)油压表损坏,指示错误,检修、更换。

10、冷凝压力过高故障原因及补救方法:

1)冷凝器冷却水量不足,加大冷却水量。

2)冷凝器传热面结垢,清洗。

3)系统中空气含量过多,排放空气。

4)冷却水量过高,开启冷却塔。

11、油温过高故障原因及补救方法:油处理器冷却效果下降,清除油处理器传热器上的水垢,降低冷却水温或增大水量。

12、润滑油消耗量过大故障原因及补救方法:

1)加油过多,放油到规定量。

2)奔油,查明原因,进行处理。

3)油处理器分离效果不佳,检修。

13、油位上升故障原因及补救方法:制冷剂溶入油内,关小膨胀阀,提高油温。

14、吸气压力过高故障原因及补救方法:

1)膨胀阀开启过大或感温包未扎紧,关小膨胀阀,正确扎紧。

2)制冷剂充灌过多,放出多余制冷剂。

3)系统中空气含量过多,排放空气。

15、 制冷量不足故障原因及补救方法:

1)吸气过滤器堵塞,清洗。

2)压缩机磨损后间隙过大,检修更换。

3)冷却水量不足或水温过高,调整水量,开启冷却塔。

4)膨胀阀开得过大或过小,按工况要求调整阀门开启度。

5)干燥过滤器堵塞,清洗。

6)膨胀阀脏堵或冰堵,清洗。

7)系统内有较多空气,排放空阀。

8)制冷剂充灌量不足,添加至规定值。

9)蒸发器内存大量润滑油,回收冷冻机油。

10)电磁阀损坏,修复或更换。

11)膨胀阀感温包内充灌剂泄漏,修复或更换。

12)冷凝器出液阀未开启或开启过小,开启出液阀到适当位置。

13)制冷剂泄漏过多,查出漏处,检修后添加制冷剂。

14)能量调节指示不正常,检修。

15)喷油量不足,检修油路、油泵,提高油量。

16、压缩机结霜严重或机体温度过低故障原因及补救方法:

1)热力膨胀阀开启过大,适当关小阀门。

2)系统制冷剂充灌量过多,排出多余制冷剂。

3)热负荷过小,增加热负荷或减小冷量。

4)热力膨胀阀感温包未扎紧或捆扎位置不正确,按要求重新捆扎。

5)供油温度过低,减少油处理器冷却水量。

17、 压缩机能量调节机构不动作故障原因及补救方法:

1) 四通阀不通,检修或更换。

2)油管路或接头处堵塞,检修、清洗。

3)油活塞间隙大,检修或更换。

4)滑阀或油活塞卡住,拆卸检修。

5)指示器故障,检修。

6)油压过低,调节油压调节阀。

18、 压缩机运行中油压表指针振动故障原因及补救方法:

1)油量不足,补充油。

2)油过滤器堵塞,清洗。

3)油泵故障,检修或更换。

4)油温过低,提高油温,

5)油泵吸入气体,查明原因进行处理。

6)油压调节阀动作不良,调整或拆修。

19、 压缩机轴封漏油(允许值为6滴/分)故障原因及补救方法:

1)轴封磨损过量,更换。

2)动环、静环平面度过大或擦伤,研磨,更换。

3)密封圈、0形环过松、过紧或变形,更换。

4)弹簧座、推环销钉装配不当,重新装配。

5)轴封弹簧弹力不足,更换。

6)轴封压盖处纸垫破损,更换。

7)压缩机与电机同轴度过大引起较大振动,重新校正同轴度。

20、 蒸发器压力或压缩机吸气压力不等故障原因及补救方法:

1)吸气过滤器堵塞,清洗过滤器。

2)压力表故障,检修或更换。

3)压力传感元件故障,更换。

4)阀的操作错误,检查吸入系统。

5)管道堵塞,检查、清理。

21、停机时压缩机反转不停(反转几转属正常)故障原因及补救方法:吸气止逆阀故障(如止逆阀卡住,弹簧弹性不足或止逆阀损坏),检修或更换。

22、机组奔油故障原因及补救方法:

1)在正常情况下发生奔油主要是操作不当引起,注意操作。

2)油温过低,提高油温。

3)供液量过大,关小膨胀阀。

4)增载过快,分几次增载。

5)加油过多,放油到适量。

6)热负荷减小,增大热负荷或减小冷量。

来源:互联网。

2.故障分析 | 数据中心制冷故障会变得更加常见么?


数据中心制冷故障会变得更加常见么?

Will data centre cooling failures become more common?


Luke Neville December 28, 2022

Managing Director at i3 Solutions Group


译 者 说

2022年全球普遍经历了一次热浪洗礼,英国伦敦、中国重庆,都经历了近些年来的夏季最高温,给数据中心的稳定造成了很大的挑战。这不是偶然,这是全球气候变暖所必然导致的全球气候的改变,短期内会持续温升,直至达到一个峰值。


目前数据中心最常用的两种末端制冷设备一般为精密空调和AHU,在机柜通道有效封闭的情况下进行有效制冷。在精细管理下,年均PUE可做到1.2以下。但是从机柜甚至服务器角度来看,此两种末端设备仍可被看作为集中制冷,依然存在冷量的浪费。在制冷设备性能在能做到有效突破的情况下,很难在数据中心制冷能效上再有质的提升。相比较来看,不断发展的液冷技术,是非常有效的分布式制冷,从服务器甚至服务器处理器级别进行有效制冷。在夏季室外温度不断随着气候变暖增加的情况下,液冷似乎成了一个应对温升危机、提高运行能效的新型手段。



更加极端的天气模式导致了更高的温度峰值,例如有记录的2022年夏季发生在英国部分地区的40℃高温,会引发更多的数据中心故障。然而,尽管不可避免的数据中心故障会变得越来越常见,但是想建立一个直接因果关系是非常困难的,因为需要考虑的因素包括不断增长的站点数量和老化的数据中心库存,这些都将势必会造成故障数量的增加。

More extreme weather patterns resulting in higher temperature peaks, such as the record 40oC experienced in parts of the UK in the summer of 2022, will cause more data centre failures. However, while it is inevitable that data centre failures will become more common, establishing a direct cause and effect is difficult as factors to consider include the growing number of sites and an ageing data centre stock that will statistically increase the number of outages.


不断提高的夏季温度峰值造成的结果是改变了数据中心制冷系统的设计策略以及哪些因素构成了“安全”的设计和运行温度。随着20多年前现在数据中心产业开始以来,数据中心制冷系统容量的设计一直在安装成本以及运行风险之间进行权衡。

What the increasing peak summer temperatures are doing is shifting the needle and changing conversations both about how data centre cooling should be designed and what constitutes ” safe’ design and operating temperatures. Since the beginning of the modern data centre industry over two decades ago, the design of data centre cooling system capacity has always been a compromise of installation cost vs risk.


数据中心设计人员力求通过选择峰值环境温度和设备冗余度水平来实现平衡,这样当温度达到时,制冷系统有能力继续保障数据中心正常运行。所选择的峰值环境温度越高,制冷系统的体积以及成本越大,制冷系统的抗风险性越强,意味着需要花费更多的成本来增加系统冗余。它降低了风险偏好,降低了所拥有者和运营商的成本。事实上,无论何时,只要温度超过了设计温度,出现故障的风险都一直存在,且随着温度的升高而增加。

Designers sought to achieve a balance whereby a peak ambient temperature and level of plant redundancy is selected so that should that temperature be reached the system has the capacity to continue to support operations. The higher the peak ambient design temperature selected the greater size/cost of the plant, with greater resilience meaning further cost for plant for redundancy. It came to down the appetite for risk versus the cost for the owner and operator. It is a fact that whenever the chosen ambient design temperature is exceeded, the risk of a failure will always be present and increases with the temperature.


所以,正确的环境温度和峰值温度设定值是什么?

So, what is the right ambient and peak temperature set point?


ASHRAE公布了5年,10年,20年,50年周期内多个不同气象站的温度。一般情况下,以20年周期内的数据一般还会用来作为数据中心环境温度的设计参考值。

ASHRAE publish temperatures for numerous weather station locations based on expected peaks over 5-, 10-, 20- and 50-year periods. Typically, the data for the 20-year period is used for data centre ambient design.


然而,这只是一个根据每个业主/运营商根据他们认为可以将风险降低到可接受的水平而不增加太多成本的选择指导方针。在过去的20年中,随着夏天越来越高的温度,数据中心设计温度也随之出现上升的趋势。

However, this is a guideline only and each owner/operator choses their own limit based on what they feel will reduce risks to acceptable levels without increasing costs too much. Hotter summers have seen design conditions trending upwards over the last twenty years.


老旧的数据中心通常使用更低的温度,从28℃- 30℃到后来公认的35℃- 38℃的标准设计条件。系统通常选择在超过这些温度点的情况下运行,甚至高达45摄氏度(以英国为基础-所有其他地区的温度将根据当地气候进行选择)。

Legacy data centres were traditionally aligned with much lower temperatures from say 28℃ – 30℃ to latterly accepted standard design conditions of 35 – 38℃. Systems were often selected to operate past these points, even up to 45oC (based on the UK – all other regions will have temperatures selected to suit the local climate).



在英国最新记录的室外40℃温度,给一些数据中心的运行人员敲响了警钟,这些数据中心发现,他们过时的设计工况,年久的设施以及高安装密度都将导致服务器在设计的极限值运行。所有的系统,随着环境温度的升高,散热能力都会降低,并且无论负载如何,都有一个固定的限制,在这个限制下,系统将无法散热。一旦达到这些条件,就一定会出现故障。

The new record temperatures of +40oC in the UK will sound the warning bell to some data centre operators who may find themselves in a situation where dated design conditions, ageing plant and high installed capacity will result in servers running at the limits of their design envelope.All systems, have a reduced capacity to reject heat as the ambient temperature increases and also have a fixed limit irrespective of load, at which they will be unable to reject heat. Should these conditions be reached, failure is guaranteed.


更加普遍的是,与系统设计能力相比,低水平的实际负载需求通常意味着数据中心永远不会经历对系统造成超载的情况。但是,那就要求确保IT负荷运行要不是稳定的,要不就是100%可预测的,或者两者都具备。

More commonly, low levels of actual load demand versus the systems design capability mean typically data centres never experience conditions which stress the systems. However, that requires confidence that IT workloads are either constant, 100% predictable, or both.


目前而言,数据中心冷却故障最有可能是受设备情况影响散热能力,而不是设计参数的限制。这被认为是英国夏季热浪期间一次故障的根本原因,当时伦敦数据中心就是冷却基础设施出现了故障。再加上数据中心利用率的提高,如果数据中心外的温度继续上升,这种情况将会发生改变。

For now, the failure of data centre cooling is most likely to be the result of plant condition impacting heat rejection capacity rather than design parameter limitations. This was cited as the root cause of one failure during the UK’s summer heatwave when it was stated that cooling infrastructure within a London data centre had experienced an issue.Coupled with an increase in data centre utilisation, should temperatures outside the data centre continue to rise this will change.


清楚自身的局限性

Know your limits


在数据中心内部,现代芯片和服务器设计不断增加的功耗要求也意味着热量可能会成为一个更大的问题。无论服务器制造商对可接受的温度范围怎么说,传统的数据中心和IT部门一直对在最高温度范围内运行他们的房间感到不安。通常情况下,数据中心的运维喜欢他们的基础设施可以运行在温度更低的环境中。

Inside the data centre the increasing power requirements of modern chip and server designs also mean heat could become more of an issue. Whatever server manufacturers say about acceptable ranges, it has been the case thattraditionally data centres and IT departments remain nervous about running their rooms at the top end of the temperature envelope. Typically, data centre managers like their facilities to feel cool.


为了减少电力消耗和制冷设施规模过大的负担,通常在散热系统中集成蒸发冷却系统。然而,最近有很多人关注数据中心的用水量及其对这种系统的可持续性的影响。虽然现代设计可以考虑大规模的储水系统和雨水收集/使用,但如果夏季继续变得更长、更干燥,就需要使用更多的自来水来弥补,供应问题将会增加基础设施运行的风险。

To reduce the burden on the power consumption and over sizing of plant, it is common to integrate evaporative cooling systems within the heat rejection. However, there has been much focus recently on the quantity of water use for data centres and its impact on the sustainability of such systems. Whilst modern designs can allow for vast water storage systems and rainwater collection/use, should summers continue to get longer and dryer, more mains water use will be required to compensate and the risk of supply issues impacting the operation of the facility will increase.



从任何意义上讲,从冷却技术空间到专注于冷却计算设备本身的范式转变可能会给出答案。例如,采用液冷可以消除对机械制冷和蒸发冷却解决方案的需求。除了一些环境效益和减少房间和服务器层面的风扇数量外,液冷还有助于提高可靠性,减少故障,一般情况下以及在极端高温情况下也是如此。

In every sense, a paradigm shift away from cooling the technical space towards a focus on cooling the computing equipment itself may present the answer.The adoption of liquid cooling systems, for example, can eliminate the need for both mechanical refrigeration and evaporative cooling solutions. In addition to some environmental benefits and a reduction in the number of fans at both room and server level, liquid cooling will help increase reliability and reduce failures generally as well as at times of extremely high temperatures.


液冷似乎越来越吸引人们兴趣。例如,在今年的开放计算峰会上,Meta(前身为Facebook)概述了其数据中心转向芯片液冷基础设施的路线图,以支持备受瞩目的元世界。然而,液冷设计的一个局限性是,它们在故障期间几乎没有留下任何的回旋余地,因为将弹性纳入这些系统可能更具挑战性。

Liquid cooling seems to be gaining traction. For example, at this year’s Open Compute Summit, Meta (formerly Facebook), outlined its roadmap for a shift to direct-to-chip liquid-cooled infrastructure in its data centres to support the much-heralded metaverse. However, one of the limitations of liquid cooling designs is that they leave little room for manoeuvre during a failure, as resilience can be more challenging to incorporate into these systems.


但就目前而言,如果不改造新的冷却系统,许多现有的数据中心将不得不找到使用空气和水来保持设备冷却的方法。但随着基础设施内外温度的持续升高,发生故障的风险也会随之增加。

But for now, without retrofitting new cooling systems, many existing data centres will have to find ways to use air and water to keep equipment cool. And as the temperatures continue to rise inside and outside the facility, so too will the risks of failure.




深 知 社




翻译:

贾旭

天津朝亚数据中心 CFM

DKV(DeepKnowledge Volunteer)计划成员


校对:

王谋锐

城地香江(上海)云计算有限公司 电气架构师

DKV(DeepKnowledge Volunteer)计划精英成员


公众号声明:

本文并非官方认可的中文版本,仅供读者学习参考,不得用于任何商业用途,文章内容请以英文原版为准,本文不代表深知社观点。中文版未经公众号DeepKnowledge书面授权,请勿转载。

3.从学习到实践:液冷技术都经历了什么

当我们听到“雾霾红色预警”的消息时,可能有人想到汽车尾气,有人想到做饭的炊烟,但很少有人会想到数据中心能耗这个问题。

数据中心能耗高

根据《国家绿色数据中心试点工作方案》中的表述:我国数据中心发展迅猛,总量已超过40万个,年耗电量超过全社会用电量的1.5%,其中大多数数据中心的PUE(平均电能使用效率)仍普遍大于2.2,与国际先进水平相比有较大差距。

可喜的是,我国的IT供应商一直在埋头研究更节能的数据中心,并已初见成效。而时间追溯到2010年7月,IBM展示了为苏黎士瑞士联邦技术研究院而设计的计算机,首款采用“热水”的超级计算机Aquasar。它可以降低40%以上的能源消耗,减少85%的碳排放,同时将收集来的热能用于建筑上的需求例如地热。液冷技术的发展也由此而翻开了新的篇章。

IBM热水冷却超级计算机Aquasar

而那时,我国的液冷技术还不够成熟,很多企业受益于Rear Door Heat Exchanger背板换热器技术,通过在服务器机架背板散热,可以减少55%的空调制冷需求。但是如果说达到世界顶级的液冷技术还长路漫漫。

随后我国自主研发的水冷机柜面市,采用了冷冻水的制冷方式,走水位置为下走水。整体密封结构,避免了柜体内部与外部空气的强制对流,最小程度地实现了设备自身独立的制冷循环;一定程度上降低了机房、数据中心的PUE。

相比传统服务器,需要风扇散热来为此服务器或数据中心的恒温,一旦风扇出现问题,服务器就会因CPU过热而出现故障问题。而空气中也会有许多灰尘,灰尘累计过多也会影响系统的散热。采用液冷服务器的主要好处是就近带走热量,可以有很高的节能效果,同时大大提高功率密度来缩小服务器的尺寸,减少风扇噪音,也更容易实现热能回收。

中科曙光从2012年开始服务器液冷技术研究,目前产品化的技术是冷板式液冷技术,而浸没式液冷技术离产业化还有一段距离。

曙光液冷

在去年的第28届全球超级计算大会(SC15)上,中科曙光发布了地球模拟装置核心产品“TC4600E-LP液冷刀片服务器”和新一代液冷展机“RoboBlades浸没式液冷刀片服务器”。TC4600E-LP液冷刀片服务器也成为国内第一个可量产的液冷刀片服务器。

目前,很多超级计算机都开始采用液冷技术,而我国的液冷技术也从学习阶段步入实践阶段;2014年,北京颁布最严"限建令",要求新建和扩建数据中心PUE必须低于1.5以下。而严格的要求也将促进企业对液冷技术的研究,降低数据中心PUE,将节能进行到底。

4.液冷分配单元系统定期维护与优化建议

  随着夏日温度的不断升高,数据中心的散热也有一定的压力,就需要液冷分配单元系统来提供冷源,进行散热工作,应用在半导体、服务器、数据中心的冷却系统在使用过程中要注意维护保养优化建议。

  液冷分配单元系统在运行过程中如果发生故障就会导致停机,导致整个数据中心运行不稳定,所以,液冷分配单元系统在日常运行过程中要注意维护保养,检查设备,尽量避免故障发生。

  液冷分配单元系统常常忽视对服务器、操作系统和网络配置的注意。然而,这些IT系统的性能对冷却支持的依靠就跟对网络连接的依靠是一样的。随着IT系统的变化,液冷分配单元系统也需要随着进行调试。

  液冷分配单元系统的设计专为满足数据中心的热负荷的需要,对服务和维修具有不同的要求,目前的数据中心冷却设备比家用的空调更加多面和复杂。一些类似数码涡旋压缩机或者高密度冷却排、变速驱动器这些技术都需要对配置和网络进行控制。

  然而,液冷分配单元系统提高性能和效率,这需要它得到妥善的原始设备制造商的工厂培训和认证的技术人员的维护,而他们通常都对如果维护这些关键系统去支持数据中心具有广泛的知识。液冷分配单元系统集成到数据中心的基础设施支持是关键,大多数非制造商支持的维修来源缺乏这种经验。

建议至少每年对液冷分配单元系统进行检查,这可以帮助避免液冷分配单元系统故障的风险,预防和减少停机时间的维修成本以,冠亚制冷提供液冷分配单元系统的控温解决方案。

相关文章推荐阅读:
拨打服务热线后的评价
超帅先生2023-07-08

维修师傅服务态度很好,快速的解决了燃气灶火不稳定的问题,维修速度很快很专业

猫~2023-07-08

不知道是因为什么原因,师傅上门来给我检查了,告诉我了是什么原因,什么问题,然后我就让他修了,修理的很好,价格收费什么的也很合理

Maio2023-07-04

师傅服务态度很好,按约定好的时间很准时到了,维修很专业,一会儿功夫就给修好了,油烟机终于可以正常运作了

唐伍君2023-06-30

冰箱的制冷修理好了,之前冻不起来东西,现在好了师父上门维修特别快,很仔细很认真,工作态度端正,而且其他问题也能帮忙处理没有收其他费用很满意

碧水铃2023-06-30

热水器管子漏水了,自己用胶带缠了一下发现还是有点漏,就预约了师傅来上门更换了下,费用还是可以接受的,师傅态度做事不错

硪的醉暧2023-06-28

有专业的技术的人员,都拥有专业的培训,服务质量好,态度满意,价格合理

发***火(匿名2023-06-10

收费合理,师傅上门准时。态度挺好

2023-06-01

油烟机突然不转了,没办法就找了师傅上门,检查后说是电机烧了,换了一个,半个小时就修好了,很专业

是阿雯吖2023-05-08

热水器滴滴滴异响,在这家店下单后师傅很快就联系我了,跟师傅电话聊好价格就上门了,换了显示面板、目前没有再继续乱响。

回忆童年2023-04-01

空调已修好,师傅服务周到,态度很好

查看更多评价 ∨
电话
预约报修
维修电话