• AI成“能源黑洞”:NVIDIA AI服务器功񐃮年激�倍!

      发布时间:2026-04-18 02:41:26   作者:玩站小弟   我要评论
    IT之家 10 月 21 日消息,工业和信息化部今日发文,公。

    快科��日消息,随着AI行业的快速发展,计算能力的需求也在急剧上升,无论是通过硬件技术,还是大规模AI集群建设,企业都在努力提升其AI处理能力,然而这也带来了巨大的能源消耗问题。

    据分析师Ray Wang分享的数据,NVIDIA的AI服务器平台在每一代的更新中都经历了显著的功耗增长,从Ampere到Kyber,功耗八年间增长�倍。

    这种巨大的功耗增长主要归因于每一代每机架GPU数量的增加,以及每个GPU的TDP的提升。

    例如在使用Hopper时,以每机�KW的额定功率运行,而使用Blackwell时,由于GPU数量的增加,这一功率几乎提升�KW。

    除了GPU数量的增加,其他因素如先进的NVLink/NVSwitch网络架构、新一代机架设计以及持续的机架利用率,也导致了超大规模数据中心的能源消耗以惊人的速度增长。

    如今,大型科技公司纷纷参与"谁拥有更大规模的AI机架"的竞赛,衡量标准已经从传统的计算能力转变为"吉瓦(GW)",像OpenAI和Meta等公司计划在未来几年内增加超�吉瓦的计算能力。

    作为对比,AI超大规模企业消耗񊄩吉瓦能源,足以供应大�万美国家庭,随着大型科技公司纷纷建设大规模数据中心,单个数据中心的能耗已经相当于一个中等国家或几个美国大州的用电量。

    另外国际能源署(IEA)2025年的"能源与AI"研究报告估计,�年,AI的能源消耗将翻倍,几乎是电网增长速度的四倍。