DeepMind AI将Google数据中心冷却账单降低了40%

科学作者 / 姓名 / 2025-06-28 15:53
"
DeepMind AI将Google数据中心冷却账单降低了40%  全球最大的超级数据中心消耗的能量量一直构成了以难题为基础的技术公司。一

DeepMind AI将Google数据中心冷却账单降低了40%

  全球最大的超级数据中心消耗的能量量一直构成了以难题为基础的技术公司。一方面,公司需要更多的计算能力来继续支持其不断增长的帝国,另一方面,更多的服务器和更多的硬件意味着更多的能源,更高的能源费用和更多的排放。

  仅在2015年,这些数据中心就消耗了910亿千瓦时的电力,相当于34个大型500兆瓦发电厂的年产量,运行费用为130亿美元,并产生了超过1亿吨二氧化碳。到2020年,他们的电力消耗预计将增加到1400亿千瓦时,这是50个发电厂的年产量。

  保持服务器的冷却已成为一个问题,以至于某些公司(例如Facebook)在Artic Circle的边缘建立了数据中心,而像Microsoft这样的其他公司正在考虑在大西洋底部的数据中心。

  在过去的三年中,尽管Google一直在使用机器学习来提高其数据中心的效率。两年前,他们开始使用这项技术更有效地管理数据中心,然后在过去的三个月中,他们开始在他们的武器库中使用新玩具 - DeepMind,这是他们在2014年以6亿美元收购的深度学习业务部门。

  DeepMind的研究人员开始与Google数据中心团队合作,以显着改善数据中心的实用程序。使用在其数据中心的不同操作场景中训练的神经网络系统,最终以更高效,更适应性的模型为中心,这有助于他们更好地了解数据中心内的动态,然后最终优化效率。

  该模型是使用其数据中心中数千个传感器收集的历史数据(例如温度,功率,泵送速度和设定点)构建的,并使用它来训练深层神经网络的集合。由于他们的目标是提高数据中心的能源效率,因此他们在平均未来功率使用效率(PUE)方面训练了神经网络。

  然后,他们训练了深层神经网络的另外两个集合,以预测数据中心的未来温度和压力。这些预测的目的是模拟PUE模型的建议动作,并确保它们不会超越任何操作限制。

  然后,通过将其部署到美国中部的现场2级超级数据中心来测试该模型,结果令人印象深刻。该新模型能够始终减少用于冷却的能量的40%,这相当于考虑到电损失和其他非冷却效率低下后的总体PUE降低了15%,并且产生了该地点有史以来最低的PUE。

  图1。试验前后的功耗记录

  至于未来的“通用框架”将应用于其他数据中心挑战,例如提高电厂转换效率,降低半导体制造能量和用水量或帮助制造设施增加吞吐量。

  考虑到Google使用了4,402,836 MWH的电力,相当于366,903个美国家庭消耗的能源量,这15%将转化为多年来的数亿美元节省,突然之间,以6亿美元的价格购买了6亿美元,似乎是一次抢断…

分享到
声明:本文为用户投稿或编译自英文资料,不代表本站观点和立场,转载时请务必注明文章作者和来源,不尊重原创的行为将受到本站的追责;转载稿件或作者投稿可能会经编辑修改或者补充,有异议可投诉至本站。

热文导读