1、风冷冷却
很明显,空气是比液体更有效的导热体(效率低1200倍)。这不仅会大大降低风冷数据中心的效率,还会引发连锁反应,影响运营成本。
风扇占服务器功耗的20%。需要使用能源密集型冷却部件(如冷却器和空气处理器)来提高空气效率。相反,这些将影响电力基础设施的规模。
在这种情况下,在数据中心技术中,空气冷却需要非常高的运营成本,PUE约为1.35至1.69。
2、液冷
基础架构要求大幅降低,其中3个可移动部件卸下风扇,无需冷却,以优化服务器入侵。液冷可将冷却能耗降低90%,数据中心总能耗降低50%。因此,PUE<1.03。
从性能的角度来看,风冷基础架构不仅会增加成本,而且会增加维护成本。液冷没有这个问题。
1、风冷冷却
事实上,一些风冷数据中心可以冷却30-35千瓦的机架。但事实上,超过15千瓦机架的风冷数据中心效率非常低。
行业趋势正在加剧这种情况。电力密集型GPU不断发展,以处理物联网和AI等HPC应用。例如,Intel®新Skylake版本的能耗高达250W。如果将其中的两个服务器放在1U服务器上,在其他电子设备上增加200W以上,再乘以40个服务器,则基于CPU的系统为28kW。处理器和加速器的增加远远超过了空气冷却的限制。
为了满足这些要求,数据中心运营商倾向于创建混合密度机架。与空气冷却相关的热点和硬件故障是不可避免的。
特别是硬件的发展,将给风冷数据中心运营商带来真正的清算(下一次硬件更新)。
2、液冷
ICEraQ GRC公司™和ICEtank™该系统通过精心设计突破了热障,将数据中心计算带到了下一个发展阶段,甚至更进一步。每个解决方案都可以轻松冷却每机架高达100千瓦的功率,理论上,如果与冷却水一起使用,则可达到200千瓦。
1、风冷冷却
所有空气冷却技术都面临硬件可靠性问题。这是因为IT设备受到潜在有害空气污染物和空气本身的负面影响(主要是腐蚀和氧化)。
风险取决于不受控制的空气本身的空气质量和自然湿度。高湿度、空气污染或刮风的可吸入颗粒物会对数据中心造成严重影响。随着远程边缘部署需求的增加,这些问题变得更加突出。
在站点灵活性方面,冷却气流的复杂性和巨大的基础架构需求是数据中心部署的一大障碍。
总而言之,传统的空气冷却可能会产生导致硬件故障的热点。
2、液冷
由于三个主要因素,液冷在这一类别中得分最高。
市场上最简单实用的冷却方式误差较小:没有冷却器、空气处理器、湿度控制等;此外,如果没有服务器风扇,则会产生增加平均故障间隔(MTBF)的振动。
潜水处理将IT设备与外部空气完全隔离,消除了环境问题。
数据中心没有热点。实际上,ICEraQ或ICEtank系统中的两个点在两个温度范围内工作。
总之,随着数据中心规模的扩大、机架的密集化和服务器负载的严格要求,传统的空气冷却技术已经不能满足数据中心的冷却需求。为了解决这个问题,许多公司开始在数据中心使用液冷技术。