Re: [请益] AI服务器成本分析——内存是最大的输家

楼主: mooto (退出会比较好, 就退出)   2023-05-29 23:49:51
※ 引述《neone (neone)》之铭言:
: 刚看到半导体产业分析机构semianalysis的这篇新文章:
: https://www.semianalysis.com/p/ai-server-cost-analysis-memory-is
: 虽然没付费只能看到部分
: bing摘要:
: 这篇文章的核心内容是分析人工智能服务器的成本。文章指出,随着数据中心建设的疯狂
: ,市场也随之疯狂。但是,有许多公司并不应该因此而受益。文章还提到,IT预算有限,
: 因此Nvidia销售额的增长主要来自于购买较少的非GPU服务器。文章中还提供了一个标准
: CPU服务器的成本分解,显示内存占服务器成本的近40%。文章最后指出,在人工智能时代
: ,普通服务器的百分比将会下降,并且在数据中心转向加速计算时,各组件的成本分配也
: 会发生重大变化。
老黄今天展示的那柜 Grace Hooper
就用了144TB GPU Memory 透过NVLink共享
(NVLink是他们自研的SERDES
简单来说就是PCIe更快的接口)
所以重点只是高速 共享
内存还是存在的
还有也不用担心大家嫌贵不买啦
老黄今天不就列了1600家要做AI的公司
挖不挖得到金矿又不关他的事
只要铲子卖得出去就好了
这种时候大家都争抢先当第一个啦
有机会变成AI界的m$, adobe谁不干
在那边省小钱 到时候就看别人鼠钱
反正新创花的也不是自己钱
烧光当然是再继续吹
话说老黄真的值得领那个钱
美国人训练不是盖的
相比之下今天下午发哥找他来蹭
那些高层讲话的台风 投影片的格局 真的差好多喔
作者: Shepherd1987 (夜之彼方)   2023-05-30 00:03:00
库克苏妈发表会都很尬, 体制内的乖宝宝
作者: dagehoya5566 (肥宅揪4丑)   2023-05-30 00:24:00
发弟高官格局根本笑话

Links booklink

Contact Us: admin [ a t ] ucptt.com