原文标题:
ChatGPT每年电费2亿?!日耗电量~1.7万个家庭,网友:挺值!
原文连结:
https://tinyurl.com/yxhvbevc
发布时间:
2024/03/15
记者署名:
明敏丰色
原文内容:
ChatGPT居然这么费电?
最新的等式出现了:
ChatGPT日耗电量约为1.7万家庭每日耗电量。
什么概念? 一年光电费就要花2亿!
美国一般家庭平均单日用电29千瓦时,而ChatGPT的单日用电量超过了 50万千瓦时 。
(美国商业用电一度约0.147美元也就是1.06元,相当于一天53万元)
消息一出就直接冲上热搜第一了。
除了OpenAI, Google 也“不容小觑”:
在Google搜寻中应用生成式AI技术,Google每年的耗电量将高达290亿度,也就是每天约
7,900万度。
而在未来,AI这一“吃电巨兽”的食量还会更惊人。
数据统计:
到2027年,人工智能资料中心的用电量将和荷兰、瑞典等小国用电量相当。
有网友看完表示:
这是利好光伏和风电?
所以AI最后拼的是谁发电多、谁发电成本低?
AI要耗多少电?
如上数据来自一篇论文《The growing energy footprint of artificial intelligence
》。
作者是荷兰数位经济学家Alex de Vries,透过英伟达、OpenAI、Google等公开数据进行
估算。
结果就得出了许多意想不到的结论。
首先,现在大模型训练时期的耗电量和推理阶段相比,已经不值一提了 。
SemiAnalysis数据显示,OpenAI需要 3617台 英伟达HGX A100、共28936个GPU来支持
ChatGPT推理。
ChatGPT每天需要回应1.95亿次请求,预计每天需要消耗564兆瓦时电力,每个请求约2.9
瓦时。
而GPT-3整个训练阶段的耗电量预估为1287兆瓦时,是ChatGPT大约4天的消耗量。
谷歌报告也表示,2019-2021年,与人工智能相关的能源消耗中有60%来自推理部分。
因此论文提出未来研究AI用电量时,更应该从全周期角度来考虑。
但这也与模型再训练频率、模型性能与功耗之间的平衡有关系。比如BLOOM在推理阶段的
耗电量就显著降低。
其次,搜寻引擎如果用上AI,耗电量还会更高。
谷歌方面曾在去年2月表示,AI回应请求的成本可能是一般搜寻的10倍。
数据显示,使用一次Google搜寻消耗的电量是 0.3瓦时 。 这和上面分析给出的数据相呼
应。
如果要将大模型能力植入到Google搜寻中,预计需要 512821 个HGX A100,按照每台设备
功耗为6.5千瓦来计算,每天将需要80吉瓦时的电力消耗,一年需要29.2太瓦时。
目前Google每天需要处理高达90亿次搜索,换算一下,平均每个请求要消耗6.9-8.9瓦时
,已经是普通搜索的20倍+。
同样的现像在英伟达的财报资料中也可以看到。
去年第二季度,英伟达营收创纪录,其中资料中心部门较上季度相比成长了141%,这表示
AI方面的需求扩增。
今年,英伟达AI服务器出货量可能达到150万台,总功耗可能达到9.75-15.3吉瓦。 这数
量级的服务器,每年的用电量将达到85.4-134太瓦时。
不过AI用电量会一路飙涨吗?
研究认为也不一定。
即使像Google这样在全球拥有数十亿用户的厂商,也会慎重考虑AI与搜寻引擎的融合。
在硬件、软件和电力成本压力下,厂商脚步或许没那么快。
硬件生产本身也受到掣肘,AI热潮使得台积电CoWoS先进封装产能吃紧,但新建厂真正可
能开始批量生产要等到2027年,这或许也会影响英伟达的出货量。
以及模型本身的算法和架构也会让AI功耗在一定程度上降低。
最终研究认为,关于AI用电量的问题,过于悲观或乐观都不可取。
短期内,在各种资源因素影响下,AI用电量成长会被抑制;但硬件和软件的能源效率提高
,显然也无法抵销长期的电力需求成长。
总之,作者认为在AI开发方面,还是不要铺张浪费的好。 监管机构也需要考虑要求厂商
揭露相关数据,提高整个AI供应链的透明度,以便更了解这项新兴技术的环境成本。
实际上,先前关于AI消耗资源的话题已经多次引发讨论。
有研究指出,到2027年,资料中心人工智能的用电量将与荷兰或瑞典等小国的用电量相当
。
加州大学河滨分校研究表明,问ChatGPT5-50个问题,就可消耗500毫升水。
因为AI超算资料中心需要大量水来散热,微软也承认用水是训练模型的一大成本,从2021
年到2022年,其全球用水量飙升了34%,相比研究AIGC前急剧增加。
网友:也要看产出
除了微博,#ChatGPT日耗电超50万度#的消息也在知乎冲上热榜第三。
尽管这数据看起来惊人,但不少网友都表示:
我们还是需要比较一下投入产出。
知乎网友@段小草就浅算了一下:
一天50万度电,1.7万个美国家庭。 但美国有1.2亿个家庭,也就是 只需万分之一的
家庭用电,就能支撑一个服务全球TOP 1的AI产品、服务数亿用户 ,这还是在浪费能源破
坏环境吗?
言下之意,如下所说(来自知乎网友@桔了个仔):
ChatGPT创造的价值其实远远超过它的能耗。
和某些技术(咳,懂得都懂)的耗电量相比,它可能更不值一提了。
所以,有人(知乎网友@玩吾伤智)直接就表示,这则消息应该这么理解:
震惊, 只需要1.7万一般家庭的电力即可满足ChatGPT的一日用电需求。 (手动狗头
)
咳咳,有趣的是,上面的答主@段小草还提到了一篇论文,题为《The Carbon Emissions
of Writing and lllustrating Are Lower for Al than for Humans》,讲的是AI 在画
画和写作上的碳排放量一个比人类少310到2900倍,一个比人类少130到1500倍 。
这样看来,AI甚至算是 “节能减排的先锋” 。 (手动狗头)
呐,我们还是早点洗洗睡、关注GPT-5什么时候发吧。
奥特曼:我们需要可控核融合
话又说回来,尽管比起收益,ChatGPT一日1.7万个家庭的能耗还不值一提,但AI能耗确实
也是一个值得关注的问题。
而这一点,奥特曼早就“担忧”了。
在今年1月的一场达沃斯会议中,他表示:
人工智能的未来取决于清洁能源的突破。
具体而言,他认为:
随着技术越来越成熟,AI将消耗越来越大量的电力, 如果能源技术无法突破,就无法实
现这一目标 (即让AI技术释放全部潜力)。
而现在,大众还不是很了解这个需求究竟有多大,奥特曼本人也表示也远远超出他的预期
。
至于如何提升能源产量,他也直言:
需要 可控 核融合 ,或更便宜的太阳能及储存等等。
——说起可控核融合,奥特曼其实早就押注了一家相关公司,名叫 Helion 。
他在它身上投资了3.75亿美元,这是他以个人名义投资的最大一笔。
除此之外,奥特曼的“爸爸” 微软 也押注了这家公司。
据了解,Helion成立于2013年,目前约150+员工。 他们预计2028年上线50兆瓦规模的可
控核融合发电项目,微软将率先采购。
原报告:
https://www.cell.com/joule/abstract/S2542-4351(23)00365-3
参考连结:
[1]https://weibo.com/1642634100/O4lb78n3U?refer_flag=1001030103_
[2]https://www.businessinsider.com/chatgpt-uses-17-thousand-times-more-electricity-than-us-household-2024-3
[3]https://www.newyorker.com/news/daily-comment/the-obscene-energy-demands-of-ai
[4]https://www.theverge.com/2024/1/19/24044070/sam-altman-says-the-future-of-ai-depends-on-breakthroughs-in-clean-energy
[5]https://www.zhihu.com/question/647926823
心得/评论:
要实现人工智能普及 就需要大量的GPU和服务器 没有稳定和强大的发电量是玩不起来的