人道首席执行官说

游戏作者 / 姓名 / 2025-06-28 12:46
"
人道首席执行官说  喜欢指数的未来?加入我们的Xpotential社区,通过Xpotential University的课程进行未来的证明,阅读有关指

人道首席执行官说

  喜欢指数的未来?加入我们的Xpotential社区,通过Xpotential University的课程进行未来的证明,阅读有关指数技术和趋势,连接,观看Keynote或浏览我的博客。

  拟人化的首席执行官达里奥·阿莫迪(Dario Amodei)在《好公司的播客》中说,当今正在开发的人工智能(AI)模型可能需要培训高达10亿美元。当前的车型像Chatgpt-4O这样的车型仅花费约1亿美元,但他预计培训这些型号的成本将在短短三年内将达到10亿美元甚至1000亿美元。

  “目前,有1亿个。今天的培训中有一些模型更像是十亿美元。”Amodei还补充说:“我认为,如果我们要达到100亿美元,我认为这将发生在2025年,2026年,也许是2027年,而算法的改进会持续发展,并且筹码的改进持续了节奏,那么我认为那时我们会有比大多数人的幽默都更好的模型。

  拟人化的首席执行官在讨论了从生成人工智能(如chatgpt)到人工通用情报(AGI)的AI发展时提到了这些数字。他说,我们突然到达Agi不会有一个点。取而代之的是,这将是一个逐步发展,模型基于过去模型的发展,就像人类孩子学习的方式一样。

  因此,如果AI型号每年增长十倍,我们可以理性地期望训练它们所需的硬件至少也要强大十倍。因此,硬件可能是AI培训中最大的成本驱动力。早在2023年,据报道,Chatgpt将需要30,000多个GPU,Sam Altman确认Chatgpt-4的训练费用为1亿美元。

  去年,超过380万GPU已交付给数据中心。凭借NVIDIA的最新B200 AI芯片的成本约为30,000至40,000美元,我们可以推测Dario的十亿美元估算估算的目标是2024。

  我们已经可以看到这种指数增长正在发生。埃隆·马斯克(Elon Musk)希望购买300,000 B200 AI芯片,而Openai和Microsoft据报道计划一个1000亿美元的AI数据中心。有了所有这些需求,如果Nvidia和其他供应商可以跟上市场,我们可以看到明年GPU数据中心的交付到3800万。

  但是,除了实际芯片硬件的供应外,这些AI公司还需要关注电源和相关基础设施。去年售出的所有数据中心GPU的总估计功耗总能够为130万套房屋供电。如果数据中心的电源需求继续成倍增长,那么我们可能会用完足够的经济电力。此外,尽管这些数据中心需要发电厂,但它们还需要一个完全升级的网格,该网格可以处理所有渴望电力的AI芯片所需的电子。因此,包括亚马逊和微软在内的许多科技公司现在开始为其数据中心建立模块化核反应堆。

  AI迅速收集了蒸汽,硬件创新似乎正在跟上。因此,Anthropic的1000亿美元估计似乎正在正轨,尤其是如果像Nvidia,AMD和Intel这样的制造商可以交付。但是,随着训练的成本如此之大,能源需求引人注目,似乎不可避免的是,公司将不可避免地将模型效率优先于模型尺寸,就像我们在中国所看到的那样。

分享到
声明:本文为用户投稿或编译自英文资料,不代表本站观点和立场,转载时请务必注明文章作者和来源,不尊重原创的行为将受到本站的追责;转载稿件或作者投稿可能会经编辑修改或者补充,有异议可投诉至本站。

热文导读