液体冷却 数据中心散热有新招

  • 时间:
  • 浏览:1
  • 来源:10分赛车注册平台-10分赛车官网平台_10分赛车官网





作者: IT168

CNETNews.com.cn

508-09-17 18:33:51

关键词: 散热器 服务器 散热 数据中心 冷却

  在数据中心机房里,机器密度和散热数率单位之间的矛盾正没了突出。随着你在就是机柜里达到的计算能力没了高,面临的散热挑战也没了严峻。

  “过去,亲们 认为每平方英尺50瓦就你这个是很高的密度了;但现在,亲们 眼睛详细前会眨一下,就把它提高到了50-50瓦。你这个还大家说你这个密度还可太久还都能不能 再高。”Vali Sorrell,美国纽约一家工程设计咨询公司Syska Hennessey 集团的高级工程师如是说。他也是数据中心散热方面的专家。“为了让散热水平不还都能不能 跟上去,亲们 需用足够多的气流和风量,而这给数据中心的基础设施带来了没了大的压力。”

  然而,你这个局部的热点(hot spot)还就是问提的一帕累托图。关键是,你这个不加控制,热量会限制数据中心未来的扩展。

  CDW Berbee是美国一家在多个城市拥有企业级数据中心的托管服务商。该公司数据中心经理Wayne Rasmussen说,“5年前,我有一段时间总担心机房空间会限制我的业务和数据中心的发展。但随着服务器机箱尺寸的缩小,我现在顾虑的不再是空间限制问提,就是热量密度的问提。”

  随着业界对提高机房散热数率单位的要求没了迫切,固体制冷的最好的措施重新进入了亲们 的视野。有了你这个专门出理 局部热点问提的紧凑型模块化散热系统,IT管理人员可太久还都能不能 增加更多的计算能力,而太久担心产生过热问提。

  数据中心的未来水世界

  水冷或液冷有两大好处:一是它把冷却剂直接导向热源,而详细前会象风冷那样间接制冷;二是和风冷相比,每单位体积所传输的热量即散热数率单位高达350倍。

  Shen Milsom &Wilke是一家总部居于纽约的国际高科技咨询公司。其负责人Robert McFarlane说,“你这个机房里产生的热量很大,亲们 需用高效地把热量散出去,这也原困我想要 让散热模块尽你这个地接近产生热量的地方。这就需用有一种东西到那里去把热量带走,可太久还都能不能 是水,你这个是一种制冷剂。”

  回到今年4月份,IBM发布了其最新的System p5 575 ,就是直接通过安装在 出理 器后面 的水冷铜板来把热量带走的。这让IBM可太久还都能不能 把448颗出理 器装在 就是机柜中,使该系统性能达到了早期机型的5倍,并肩把电耗减少了50%。

  IBM公司还有另外一种水冷产品。针对大规模的数据中心,DCSCS(Data Center Stored Cooling Solution,数据中心贮备型散热方案)可太久还都能不能 在温度和电费都较低的非高峰运行时期,把水冷却并贮备起来,你这个在高峰时间用来冷却机房。针对机柜层面,Rear Door Heat eXchaner 是一种4英寸深的单元模块,可太久还都能不能 安装在 服务器机柜后面 ,它可太久还都能不能 提供多达5万BTU(英国热量单位)的散热数率单位。

  你这个你这个公司也采取了类似最好的措施,把液冷模块集成到个人所有的产品中去。比如,Emerson Network Power的Liebert XD 系统使用一种液态制冷剂来为服务器机柜散热;Knurr AG的CoolTherm 把一种水冷热交换器安装在 了机柜的底板后面 ;Egenera的 CoolFrame 技术则是把Liebert XD和 Egenera的BladeFrame EX 设计结合到了并肩。具体到出理 器的散热上,ISR的SprayCool M系列更酷,它在服务器组织组织结构安装你这个模块,可太久还都能不能 直接向CPU喷出一种冷却雾。最后,NEC和日立则提供了液冷的硬盘,可太久还都能不能 让哪些地方地方硬盘详细密封盖起来降低噪音。

  向模块化方向发展

  近年来的就是发展方向是模块化、完成密封盖的服务器系统结束流行,哪些地方地方系统老会 都整合了液冷单元。比如“集装箱”式计算系统,如SUN公司的Modular Datacenter S20 (即就是的Blackbox),以及Rackable System的ICE Cube和 Verari的 Forest 。微软近期则敲定正在美国芝加哥地区投资5亿美元,建设就是可太久还都能不能 容纳50-50个“集装箱”(称为C-blocks)的大型数据中心,每个就是的“集装箱”含高50-50台服务器。

  另外,通过使用APC或Liebert的你这个产品,类似上述最好的措施也可太久还都能不能 在现有的建筑屋中实现。比如,去年斯坦福大学工程学院高性能计算中心要安装一台拥有150颗CPU核,计算能力达到每秒14万亿次的超级计算机。

  计算中心主任Steve Jones说,“学校的数据中心没了给亲们 提供为宜每机柜5KW的电力和相应的散热设备,但亲们 需用实现更高的计算密度,为宜是每机柜20KW,你这个学校的机房没了满足亲们 的需求。”

  Jones没了浪费时间和金钱去新建哪些地方数据中心,就是接管了就是没为什么我得到充分利用的计算机实验室,你这个使用 APC的InfraStruXure 系统,该系统在机柜中集成了供电和散热单元。你这个由学校后勤部门负责把水管和电线铺好,由APC、戴尔和Clustercorp工程师组成的项目小组负责安装机柜和服务器。从设备到达现场,直到集群投入使用,总个过程只花了11天。

  CDW Berbee在扩展其1.2万平方英尺的数据中心时,也采取了类似的最好的措施。为了消除机房中的热点,CDW Berbee安装了8个20KW的Liebert XDH 散热器和就是150KW的Liebert XDC 冷却装置。

  Rasmussen说,“我现在所有的系统都运行很正常。在大多数情况下,亲们 都把机房温度控制在22摄氏度。”

  McFarlane说,“我出理 过你这个小型的数据中心,为宜有20-50个柜子,对你这个规模的数据中心来说,详细用液态机柜是很有意义的。但对于拥有成百上千个机柜的大规模数据中心来,亲们 今天还需用比这更好的出理 方案。”

  试试打开窗户

  随便说说亲们 习惯于把服务器封闭在就是房间里,但相反的做法也结束再次跳出。比如,ESTECH International的Millennium Series Chiller Optimizer使用室外空气来减少机房对制冷剂或空调的依赖。哪些地方地方节热器会监控室外和室内的环境变化,并决定可太久还都能不能 用多大比例的室外空气来帮助机房达到最优的散热数率单位。

  Sorrell说,“你这个从机房回收来的空气非常热,就是相比下,直接使用室外的空气你爱不爱我更有效。我想要选折 在使用室外空气时让制冷站保持运行,你这个当室外空气温度低统统时,可太久还都能不能 把制冷站关闭,节省更多费用。”

  他谈到,室外空气质量通常也足以用在数据中心,何况它需用经过一层过滤。并肩使用室外空气也提供了一种备份的散热方案。在北半球高纬度地区,你这个你的制冷站出了问提,你任何日后都可太久还都能不能 使用室外空气。即使室外气温达到了32摄氏度,数据中心设备为宜在1-就是小时内太久瘫痪。