Re: [请益] AI服务器成本分析——内存是最大的输家

楼主: deepdish (Keep The Faith)   2023-05-30 01:06:07
觉得大家好像都看错重点吧
以前服务器需要大量内存
是因为要维持即时服务非常多人的需求
就像 PTT 可以有十万人一起上站嘛
如果无法做到
就很像是被 DDOS 攻击
网站就连不上惹
但一到深夜 PTT 根本没啥活人在线上惹
然后现在是资料爆量的时代
譬如以抖音来说
甚至可以用 AI 去做人脸的影像分析
人脸影像分析可以在服务器内部做的
那根本不需要做到即时分析
服务器有空闲余裕的时候再做就好
所以成本可以降低没错阿
※ 引述《mooto (退出会比较好, 就退出)》之铭言:
: ※ 引述《neone (neone)》之铭言:
: : 刚看到半导体产业分析机构semianalysis的这篇新文章:
: : https://www.semianalysis.com/p/ai-server-cost-analysis-memory-is
: : 虽然没付费只能看到部分
: : bing摘要:
: : 这篇文章的核心内容是分析人工智能服务器的成本。文章指出,随着数据中心建设的疯狂
: : ,市场也随之疯狂。但是,有许多公司并不应该因此而受益。文章还提到,IT预算有限,
: : 因此Nvidia销售额的增长主要来自于购买较少的非GPU服务器。文章中还提供了一个标准
: : CPU服务器的成本分解,显示内存占服务器成本的近40%。文章最后指出,在人工智能时代
: : ,普通服务器的百分比将会下降,并且在数据中心转向加速计算时,各组件的成本分配也
: : 会发生重大变化。
: 老黄今天展示的那柜 Grace Hooper
: 就用了144TB GPU Memory 透过NVLink共享
: (NVLink是他们自研的SERDES
: 简单来说就是PCIe更快的接口)
: 所以重点只是高速 共享
: 内存还是存在的
: 还有也不用担心大家嫌贵不买啦
: 老黄今天不就列了1600家要做AI的公司
: 挖不挖得到金矿又不关他的事
: 只要铲子卖得出去就好了
: 这种时候大家都争抢先当第一个啦
: 有机会变成AI界的m$, adobe谁不干
: 在那边省小钱 到时候就看别人鼠钱
: 反正新创花的也不是自己钱
: 烧光当然是再继续吹
: 话说老黄真的值得领那个钱
: 美国人训练不是盖的
: 相比之下今天下午发哥找他来蹭
: 那些高层讲话的台风 投影片的格局 真的差好多喔
作者: momvic110456 (monvicada)   2023-05-30 01:56:00
作者: darkangel119 (星星的眷族)   2023-05-30 04:48:00
如果只是单方面思考单层问题 服务器不是这样运作

Links booklink

Contact Us: admin [ a t ] ucptt.com