[新闻] AI 服务器用电量等于一小国,研究:没必

楼主: ljsnonocat2 (平凡是幸福)   2023-10-12 21:31:31
1.媒体来源:
科技新报
2.记者署名:
黄 嬿
3.完整新闻标题:
AI 服务器用电量等于一小国,研究:没必要每个 App 都有 AI
4.完整新闻内文:
人工智能将会成为人类的第二大脑,但也是头碳排怪兽。数据科学家分析,到 2027 年 AI 服务器每年使用的电力相当于阿根廷、荷兰和瑞典等小国一年的用电量,而且这还是保守估计,作者提醒,每个人应该认真思考 AI 的必要性。
阿姆斯特丹自由大学商业与经济学院博士候选人 Alex de Vries,他也是研究公司 Digiconomist 创办人,定期公布比特币能源消耗指数。这次他想知道 AI 服务器的电力消耗量,但资料太少,他只能透过 Nvidia A100 服务器预计销量计算电力消耗,Nvidia 占 AI 芯片市场 95%。
研究基于 2027 年 Nvidia 可能会出货 150 万台此类服务器,乘以服务器的用电量,估计届时 AI 服务器电力消耗与荷兰、瑞典等小国一年用电量一样多。研究中特别强调推理阶段,他说先前研究关注模型训练阶段的用电量,但他认为,推理阶段消耗的能源其实更可观。
以 ChatGPT 为例,OpenAI 需要 3,617 台基于 Nvidia HGX A100 平台的服务器,总共配备 28,936 个 GPU,等于每天的能源需求为 564 MWh。相较之下,GPT-3 模型训练阶段估计所使用的电量为 1,287 MWh。
研究假设是市场对 AI 的兴趣不减,以及 AI 芯片的可用性,但是作者认为,由于 Nvidia 生产能力有限,因此当前的硬件和软件全面采用 AI 不太可能迅速发生。但即使 Nvidia 芯片供应有限是 AI 成长的瓶颈,企业也不会停止 AI 发展,现在都急于寻找替代来源。
一些专家已呼吁企业在设计下一代 AI 硬件和软件时应考虑电力消耗,但专家悲观认为,市场竞争激烈,企业不可能有余裕考虑环境影响。除了电力问题,为了冷却资料中心的水量也非常可观,研究发现,每次使用聊天机器人回答问题,就需要 1 瓶水来冷却。根据微软公布的资讯,由于资料中心冷却需求增加,去年用水量大增 34%。Gogole 也报告 20% 的成长,加州大学研究人员认为是生成式 AI 使用增加导致。
加州新法逼企业更透明
加州与气候有关的法案一直走在世界之先,最近加州州长 Gavin Newsom 签署两项重要的气候揭露法,规定所有在加州开展业务的大公司,包括 OpenAI 和 Google 等 AI 密集型公司在气候风险资讯方面都必须更加透明。
法案要求所有全球年收入超过 10 亿美元的私人公司,2026 年揭露营运产生碳量,到 2027 年必须揭露供应链中产生的碳量。2026 年,年收入超过 5 亿美元的公司,也必须公布与气候相关的财务数据。外媒评论指出,该规定在美国尚属首例,可能有上万家公司受到影响,这些法律也可能产生超出州界的影响。
研究作者呼吁必须针对 AI 的永续性提出质疑,科技公司需要提高透明度,并为整个 AI 开发制定更谨慎的方法,由于 AI 不能解决所有问题,人们也应该思考应用程式是否真的都需要 AI。
5.完整新闻连结 (或短网址)不可用YAHOO、LINE、MSN等转载媒体: https://technews.tw/2023/10/12/ai-server-power-consuming-is-huge/
6.备注:
不过比较起来 AI总比挖矿稍微有用多了
之前全世界把电力浪费在挖虚拟货币真的蛮怪的
希望AI除了聊天 绘图之外
能对普通人的生活更有帮助

Links booklink

Contact Us: admin [ a t ] ucptt.com