※ 引述《neone (neone)》之铭言:
: 刚看到半导体产业分析机构semianalysis的这篇新文章:
: https://www.semianalysis.com/p/ai-server-cost-analysis-memory-is
: 虽然没付费只能看到部分
: bing摘要:
: 这篇文章的核心内容是分析人工智能服务器的成本。文章指出,随着数据中心建设的疯狂
: ,市场也随之疯狂。但是,有许多公司并不应该因此而受益。文章还提到,IT预算有限,
: 因此Nvidia销售额的增长主要来自于购买较少的非GPU服务器。文章中还提供了一个标准
: CPU服务器的成本分解,显示内存占服务器成本的近40%。文章最后指出,在人工智能时代
: ,普通服务器的百分比将会下降,并且在数据中心转向加速计算时,各组件的成本分配也
: 会发生重大变化。
老黄今天展示的那柜 Grace Hooper
就用了144TB GPU Memory 透过NVLink共享
(NVLink是他们自研的SERDES
简单来说就是PCIe更快的接口)
所以重点只是高速 共享
内存还是存在的
还有也不用担心大家嫌贵不买啦
老黄今天不就列了1600家要做AI的公司
挖不挖得到金矿又不关他的事
只要铲子卖得出去就好了
这种时候大家都争抢先当第一个啦
有机会变成AI界的m$, adobe谁不干
在那边省小钱 到时候就看别人鼠钱
反正新创花的也不是自己钱
烧光当然是再继续吹
话说老黄真的值得领那个钱
美国人训练不是盖的
相比之下今天下午发哥找他来蹭
那些高层讲话的台风 投影片的格局 真的差好多喔