冷却和权力问题
数据中心必须有严格的环境控制,采取或生成大量的力量,保持运行。这些都是昂贵的。
由于服务器和其他设备不做得很好在极端温度下,大多数数据中心巨大的冷却和空气流动系统,消耗大量的电力,有时水。传感器必须在监测环境条件,以便调整。
广告
这不仅仅是温度是一个问题。湿度等因素控制。在2011年,脸谱网有一个实际的云,而不是数字类型,在它的一个数据中心,导致一些服务器重启和电源短路由于雨里面。结果,他们修改他们的楼宇系统,使服务器更不受天气影响的。
机架式服务器通常安排在行创建通道,服务器是所有面对面或面临彼此远离为了更有效地控制气流和温度。过道,他们面临的是冷却通道,热通道上,空气注入。
功耗是另一大问题。这是绝对必要的,这些设施不断获得足够的力量——有些人甚至有自己的电力变电站。指标用于判断数据中心能源效率的能量消耗(PUE)。计算的能源消耗总量除以能源使用纯粹用于计算。雅虎、谷歌和Facebook的PUE分数是1.1或1.2左右他们的一些大型数据中心,虽然2.0是更典型的行业。这意味着能量计算,一半为其他任务或浪费[来源:局部激素,莱维]。咨询公司麦肯锡公司发现,平均数据中心实际上是只使用6到12%的动力做计算工作,其余失去了空转,等待下一个的流量激增,可能由于过度供应的资源害怕延误和停机时间[来源:Glanz]。
正在做很多事情来减少数据中心的电力和其他资源的需求。服务器房间用于保持在华氏60度(15.6摄氏度),但更节能的数据中心的趋势是保持在80华氏度(26.7摄氏度),至少在冷却通道,虽然不是每个人都采用这种做法[来源:局部激素,莱维]。服务器显然在这个温度很好,它需要较少的冷却相关权力。
有一个越来越明显的趋势露天使用冷却,空气从外面而不是运行大量耗电空调和冷却装置。另一个趋势是准备好水源附近的定位数据中心可以为冷却回收使用,如谷歌的数据中心在芬兰,它使用海水。另一个是定位在寒冷的气候数据中心。
实际计算齿轮的变化也能有所帮助。许多组件在数据中心泄漏能量,这就意味着一些他们所使用的力量从来没有让它做实际处理——这是浪费。老的服务器替换为新的、更节能模型显然有帮助。但设备也可以被重新设计,需要更少的力量。大多数数据中心使用传统的现成的服务器和其他设备,但谷歌和Facebook都使用定制的服务器。谷歌是为了停止不必要的组件(比如显卡,并减少电源的功率损耗和电压调节器。面板包含制造商的标志是省略了允许更好的气流从组件,和公司让一些自己的网络设备。
此外,处理器和球迷也可以慢下来当他们不需要。更高效的服务器也倾向于抛弃更少的热量,进一步减少冷却所需的能耗。低功率分支服务器,最初为移动设备而设计的服务器使用,进入数据中心,。
使用应用程序的波动取决于正在开展哪些工作什么时候在各种软件和web应用程序,其中有任何不同的资源需求。应用程序资源管理对提高效率和减少消费很重要。可以自定义编写的软件与系统架构工作更有效率。服务器虚拟化也可以降低能耗,减少运行的服务器的数量。