训练和运行的巨型AI模型(例如GPT4和BARD)使用了大量的能量,并且都开始加起来。

生活作者 / 姓名 / 2025-06-29 16:19
"
训练和运行的巨型AI模型(例如GPT4和BARD)使用了大量的能量,并且都开始加起来。  喜欢指数的未来?加入我们的Xpotential社区

训练和运行的巨型AI模型(例如GPT4和BARD)使用了大量的能量,并且都开始加起来。

  喜欢指数的未来?加入我们的Xpotential社区,通过Xpotential University的课程进行未来的证明,阅读有关指数技术和趋势,连接,观看Keynote或浏览我的博客。

  人工智能(AI)有动力的系统不仅用于培训目的,而且还需要大量的电力才能运行,因此一项新的研究计算了一些最近的大型语言模型的能源使用和碳足迹。

  其中一位是在10,000个NVIDIA GPU上运行的Chatgpt,被发现消耗了1,287兆瓦的电力,这相当于美国121套房屋使用的能源。

  当我们加速建立人类有史以来最伟大的技术发展之一时,我们需要问自己,这一发展的抵消是什么?作者亚历克斯·德·弗里斯(Alex de Vries)在《尤尔杂志》上发表的一篇评论中指出,将来,能源要求AI工具为AI工具提供动力可能会超过某些小国家的权力需求。

  最近,越来越多的公司开发自己的芯片以满足大量AI要求的转变。Google和Amazon已经拥有自己的AI芯片,而有传言说Microsoft将在下个月揭幕其内部芯片硬件。微软还对OpenAI进行了大量投资,据报道,该投资也处于开发自己的芯片或收购为他们做到这一点的半导体公司的开始阶段。

  所有这些意味着,AI行业的能源足迹将显着增加,这至少要直到新的模拟芯片和芯片设计高达100倍的能源效率。

  Vries解释说:“例如,如果将生成AI集成到每个Google搜索中,例如Alphabet的Google等公司可能会大大增加其功率需求。”

  根据领先的半导体和AI博客的半分析,估计在每个Google搜索中将类似于Chatgpt的聊天机器人整合在一起将需要512,820 NVIDIA的A100 HGX服务器,这意味着超过400万GPU。每台服务器的电力需求为6.5 kW,这将转化为每天的80 gwh耗电量,每年消耗量为29.2 TWH。

  作者指出,AI工具具有初始训练阶段,然后是推理阶段。训练阶段是最能源密集型的,并且一直是迄今为止AI可持续性研究的中心。推论阶段是这些工具根据训练的数据生成输出时。作者呼吁科学界更加关注这一阶段。

  Vries说:“……OpenAI需要3,617个NVIDIA的HGX A100服务器,总计28,936 GPU,以支持Chatgpt,这意味着每天的能源需求为564 MWH。”这只是为了在任何消费者开始使用它之前开始聊天机器人。他补充说:“与GPT-3训练阶段使用的估计1,287 MWH相比,推断阶段的能量需求似乎更高。”

  作者最后指出,预期改进硬件和软件效率将完全抵消与AI相关用电消耗的任何长期变化,这太乐观了。但是正在努力。

分享到
声明:本文为用户投稿或编译自英文资料,不代表本站观点和立场,转载时请务必注明文章作者和来源,不尊重原创的行为将受到本站的追责;转载稿件或作者投稿可能会经编辑修改或者补充,有异议可投诉至本站。

热文导读