跳到主要内容

微软,Facebook带着小说云冷却方法带来了暴跌

近四年开始测试水下数据中心的想法后,微软正在沉入实验中的更多资源。

这一次,它已经淹没了超过864台计算机服务器(以及他们需要运行的所有相关档位)大约117英尺深的苏格兰海岸的海底。它们被挤进到12个机架中,并容纳在一个40英尺长的容器中,看起来比传统的数据大厅更像潜艇。整个原型耗尽约0.25兆瓦的可再生太阳能和风电,通过岸上的电缆进入它。

高级目标项目Natick.是测试在面对严格的工作负载时可以保持酷的海洋水可以保持技术运行,例如运行人工智能计算或处理视频流服务。

实验将在数据中心抬回水之前运行一年,收集功耗,内部湿度和温度等度量。从理论上讲,数据中心不应需要维护多达五年,为您想知道重新启动的计算机,这些计算机在深度休闲水肺潜水员的深度潜水范围内。

但它是海上的吗?

潜艇类比不是偶然的:用于勘探或军事应用的水下船是一种信息饥饿的结构,需要非常仔细地平衡电气和热效率。因此,微软聘请了一家来自法国的400年冷的工程公司,潜艇专业知识有助于设计其集装箱。

“在第一次看,我们认为数据中心和潜艇之间存在巨大差距,但实际上他们有很多协同效应,”海军集团的首席技术官员和创新主任埃里克波文说新闻稿。

例如,数据中心的热交换器使用相同的原理:冷水在机架的背面管道,然后强制退出以降低温度。

在很大程度上,传统数据中心的电力需求是通过如何将计算装备过热所需的电力决定。这通常通过设计的组合,例如凸起的地板和特殊通风方法以及风扇和冷却塔等设备来实现。运行服务器所需的功率比率与保持它们酷的需要是所需的称为电力使用效果(扁平)。越越近的得分为1,更好。

第一个项目Natick Design是在加州测试的,在迄今为止更平静的地方,较为浅水区105天。最终,该想法是测试概念是否将在海上工作,使用海上风力涡轮机或潜在,波或潮汐能发生器产生的能量。还有另一个潜在的奖金:更接近的数据中心是他们服务的人口,他们通常提供信息的速度越快。如果他们可以是“能量自给自足”,一如既越好。

与欧洲海洋能源中心的一部分相关的风险是真实的。潮流可以在峰值上每小时九英里移动水,并且10英尺的波浪很常见。它占用了一支驳船,配有起重机和10个绞盘,将数据中心降低到海底。

Facebook漂浮在液体冷却中的突破

虽然它没有Microsoft项目的魔法因子,但Facebook也是如此交谈另一种熟练的系统为了保持大规模的数据中心免受过热。

在其大部分地点,社交媒体公司使用室外通风和户外通风的组合直接蒸发冷却拉出这个的方法。确切的组合取决于数据中心物理位置的位置 - 这种方法无处不在,在气候非常潮湿或尘土飞扬的地方,Facebook使用间接冷却系统。

在后一项工作中,Facebook配合了加热,通风和空调制造商Nortek Air解决方案,开发了一种新的间接冷却系统,使用水而不是空气来冷却数据厅。

这项技术及其表弟之间的主要区别在于它产生冷水而不是冷空气,仔细过滤,使其可以用最小的维护重复使用。该装置可与风扇线圈墙,空气处理器,连续冷却器等系统组合使用,以及后门热交换器和芯片冷却。

根据Facebook的说法,该系统的一个大优势是,它将允许该公司在热,潮湿的气候中建立数据中心,在那里今天难以这样做。团队注意到:

该系统不仅可以保护我们的服务器和建筑物免受环境因素,而且还将消除更广泛的气候条件下机械冷却的需求,并为数据中心设计提供额外的灵活性,需要较少的方形镜头以有效地冷却。虽然直接蒸发冷却仍然是冷却环境条件允许的数据中心的最有效的方法,但SPLC为更广泛的气候提供了更有效的间接冷却系统。

直观地,您可能希望这种方法可能会增加耗水量。但是Facebook报道,根据其测试,新技术可以在炎热和潮湿的气候下将水使用约20%。

顺便说一下,Facebook计算其数据中心投资组合中的PUE是1.10。它认为,它的新系统将比其直接冷却方法与直接冷却方法相比,即使在炎热和潮湿的气候中也会运行。

更多关于这个主题