Re: [情报] 辉达:将恢复H20在中国的销售

楼主: TameFoxx (foxx)   2025-07-16 14:48:54
※ 引述《LDPC (Channel Coding)》之铭言:
: 最近时间比较多 发发废文https://reurl.cc/x3GvEb
: 摘录"我们希望中国持续使用排名第四的产品,因为他们仍然离不开美国技术",
: "中国完全有能力自己做芯片,但你要保持领先一步,这样他们就会持续买我们的产品"
: 这意味 美国商务长已接受用次次次次级芯片 来锁西岸自研
: (这论点很久以前就发过 参照2023 11月 1bJpKX18) 所以老黄应该会爆赚
: 针对H20架构 https://hao.cnyes.com/post/76040
: 还是老话一句 单颗快没有太大好处 要的是整个node-to-node cluster-to-cluster
: 巨大串级 也就是nvlink+cuda h20有4TB/s串连速度 稳定cuda 这种只有老黄有
: 这点来说h20还是可以打赢910b 尤其910b坪宽速度是h20一半 这意味多颗串连时
: 910b自身算力会被频宽限制住而下降 以及h系列都有 transformer engine 可以动态调整
频宽有两种
HBM的频宽跟GPU-GPU的频宽
如果是串联走张量并行 最后都是会卡在GPU频宽没错
H20单颗算力较低 在input token较多的时候会显得吃力
多颗并联确实可以改善这问题
在使用者只问一些 帮我用Python写一个贪食蛇 这种超短的prompt
根本不需要消耗多少算力
最后都是比频宽
如果模型大小比较小可以整个塞在H20中
那H20的速度直接屌打华为
H20其实某种程度上CP值真的算很好
只有中国买得到
中国以外的地方 请你们买我们NV贵贵的GPU喔 不提供H20超值餐
: bf16精度 然后在inference系列还是有极佳generation token效果
: 而h20 内存是96GB hbm3 这就意味者 cowos/hbm/tsm小队可以回归了
: 中国的市场订单可以作为后来买其他股票的定锚 下一季NV财报可以用来其他厂商对答案
: 这也意味者老AI要回来了 来吧 tsm小队集合 \@@/
我比较期待把HBM弄到个人电脑的那天

Links booklink

Contact Us: admin [ a t ] ucptt.com