Waste看起来像是你新买的小耳机里的一堆塑料、泡沫塑料和硬纸板。看起来像喷泉旁的垃圾桶里溢出的塑料瓶。它看起来像一辆被一个人占据的悍马。但很少有人在Facebook上发布kitty照片时会想到浪费。为网站提供动力的数据中心的计算机集群远离使用它们的人。结果,他们所消耗的能量仍然看不见,也记不住。
直到最近,数据中心服务的大多数公司的高管也没有对能源投入太多精力。高额电费被视为生意兴隆的标志。从这个角度来看,生意很好。Facebook用户每天上传3.5亿张照片,发送100多亿条信息,点击近50亿条喜欢的内容。所有这些活动都需要足够的电力为一个155000人的城市供电。谷歌可以为一个拥有75万人口的大都市提供动力,比波士顿、西雅图或丹佛还要大。在全球范围内,数据中心的耗电量去年增长了63%,达到38千兆瓦时,相当于新西兰或哥伦比亚的年用电量。1.
但处理数据的成本现在已经变得如此之高,以至于效率优势可以转化为显著的竞争优势,导致许多高科技公司开始实施相对低技术的开发项目,重点放在一件事上:更精简的数据中心。
这个目标并不容易。A.纽约时报调查研究发现,只有6%到12%的服务器用电用于计算。其余的大部分用于使服务器保持空闲,以防出现大量活动,并用于备份系统和空调。即使是短暂的服务中断也可能代价高昂。例如,西尔斯表示,在2012年1月3日假期后的高峰期间,其数据中心因电力问题关闭了五个小时,因此损失了160万美元。2013年,谷歌仅5分钟的停机就让公司损失了54.5万美元。同年亚马逊的一次宕机,据统计,每秒销售额为1100美元嗡嗡声.
有这么多的损失,过剩能源的价格似乎是值得的。运营商在其数据中心增加了冗余的服务器组,这些服务器消耗电力,但什么也不做,等待在服务器出现故障时接管。这和在度假时开空调一样高效。但在数据中心领域,复制不是浪费,而是可靠性。电力研究所(EPRI)电力公用事业智库的高级项目经理丹尼斯·西曼斯基(Dennis Symanski)说:“发生故障的风险不值得节约。”。“他们希望他们的设施99.995%的时间运行。”
冷却和维护服务也存在浪费。在一个房间里运行的数千台计算机会导致温度升高和计算机故障。为了防止这种情况的发生,巨型空调将冷空气通过地板通风口直接通过服务器本身,在那里加热并作为热空气排出。
所有这些都意味着,只有一小部分能源用于为人们实际使用的网站提供动力的计算服务。这一部分的一个常用指标是功率利用效率(PUE)。PUE为1.0意味着数据中心的所有能源都将用于计算设备;2.0意味着只有一半的能量是可用的。当纽约数据中心行业组织Uptime Institute于2007年首次对会员进行调查时,发现平均PUE为2.5。换言之,成员在计算中每使用1千瓦时,就要消耗1.5千瓦时的电力。
在损失如此巨大的情况下,如果确保不会发生停电,那么过剩能源的价格似乎值得付出代价。
两年前,能源消耗终于让沃尔特·奥蒂斯难堪了。奥的斯管理着一家专业服务公司的数据中心,该公司在世界各地设有办事处。业务蒸蒸日上,奥的斯想要扩张,但他的1500台服务器已经将他的冷却系统推到了最高水平。再加上更多的服务器将使其完全超载。
这使得奥的斯以不同的方式看待他的数据中心。例如,他注意到空调通风口正好位于计算机排出热空气的区域上方,在冷却服务器之前加热空调空气。这个问题很简单,可以解决。他将空调通风口从电脑排气口移开,并在服务器上方和过道末端悬挂塑料窗帘,以防止冷空气与热空气混合。
通过这个简单的改变,奥蒂斯能够将他的恒温器调高7华氏度。一天晚上,当周围没有人的时候,他做了这件事。奥蒂斯说:“如果我谈论这件事,技术人员都会吓一跳,因为他们担心服务器会发热并出现故障。但没有人注意到,因为温度仍然比以前到达服务器的热空气要低。”此举将奥蒂斯的电费削减了近一半,他扩展了数据中心。
在Facebook,技术人员还将服务器废气与较冷的空气隔离。他们还做了一个更彻底的改变:他们扔掉了空调。技术人员普遍认为服务器必须在64到70华氏度之间运行,以防止过热。花了好几年才意识到这是早期的遗留问题。英特尔数据中心效率解决方案经理杰伊·凯萨桑德拉(Jay Kyathsandra)表示,较新的服务器可以在华氏95度的高温下运行。这意味着,吹入室外环境空气可以取代空调。
位于加利福尼亚州的劳伦斯伯克利国家实验室的超级计算机中心做出了这一改变,但它依赖于水而不是外部空气。它首先让温水通过大型水塔,其中一些水蒸发并降低剩余水的温度。然后用水冷却设备室内的热空气。
这个想法也可以反过来运行:在科罗拉多州博尔德的国家可再生能源实验室数据中心,从服务器上飘出的热空气被输送到相邻的建筑物中加热房间,也被输送到附近的人行道和停车场,在冬天融化积雪。
现代数据中心也在减少服务器冗余。现在的服务器可以充当多个独立的服务器,每个服务器处理不同的操作,而不是让每个服务器处理单个操作,如流式视频或电子邮件。“我们可以使用同一块硬件来运行5、10或15个应用程序,而不是一个[应用程序],”戴尔的Green Grid代表John Pflueger说,Green Grid是一家旨在提高数据中心效率的组织。
这些措施正在产生效果。2012年,正常运行时间研究所发现平均PUE从2.5大幅下降到1.9以下。但最大的数据中心已经显示出一些最显著的改进。例如,Facebook在2012年的平均PUE为1.09。谷歌最高效的服务器场在1.06注册。在数据中心的世界里,节能已经变得像装满垃圾的垃圾桶一样显而易见,公司正在清理他们的行为。
艾伦·布朗是一位自由撰稿人,专注于科学与工程的交叉。