楼主:
squelch (小迷糊)
2025-02-01 10:50:33※ 引述《afflic (afflic)》之铭言:
: 给一些觉得中国很烂的人看看市场现在在担心些什么
: 舰长J快讯 重要的突破要多写一次
: 2025/1/31
: 总之,这几天是一次很烧脑的过年假期,感觉比平常还要认真研读资料,甚至大年初一晚
: 上还有大陆券商办专家论坛..... 这个市场实在太卷。
: 当然,花了这些精神做功课,就是要研究一下开年后的投资动作,究竟是新春大特卖赶快
: 捡便宜、还是苗头不太对脚底要抹油?很遗憾的,这几天研究下来,个人目前对硬件的看
: 法越来越偏向后者,但相关的AI应用却可能加速发展。
: DS的论文重点以及它在算法上的突破,网络上已经有很多人分享,我就不再赘述;直接
: 讲几个观察到的重点吧~
: 1. 还记得Apple为了推销Apple Intelligence,将iPhone 全面升级到8GB以上吗?这仅仅
: 是为了跑一个3B 参数的小模型而已。 现在,有人成功用一张 Nvidia RTX 6000 (48GB V
: RAM) 就可以跑动 DS 671bn 参数的大模型,而且这个模型还开源可以直接下载。
: 这代表什么意思?以后企业或个人要布建AI,可能买一台具有高阶显卡的电脑就做的到。
: 不用每个月花200USD订阅OpenAI、不用CSP租赁昂贵的AI server & 网络..... 在地端
布
: 署AI 变得简单&便宜许多。这两天已经有看到朋友的公司开始研究把AI模型的布建转
为
: 在地端执行的可能性。
: 2 各大厂纷纷投入:短短几天,可以看到微软、AWS、NVIDIA 都开始提供DS R1 模型的服
: 务。由于对硬件的要求的确不高,百万token 输出的价格只要2.19美元(作为对比: Ope
: nAI的输出价格为60美元/百万Token),价差接近30倍。
: NVIDIA 官方也有描述:在单个NVIDIA HGX H200系统上,完整版DeepSeek-R1 671B的处理
: 速度可达3,872 Token/秒。仅需一个系统就可以完整运作DS R1 大模型。就算企业依然需
: 要利用云端来布建AI,需要的系统&价格也比之前简化许多。
: 3 NV关键优势不再? 这两年来,我们持续提到NV产品在大模型与高运算力方面的优势,
: 包括内存的使用、NVlink多卡串联、Scale-up/out 的领先等等;在探讨下一代Rubin或
: 更后面的产品,讨论的是一个机柜做到NVL 144/288 、如何处理这么大功耗的产品、系统
: 架构该如何演进等等;重点不仅仅是“教主产品做的比别人好”,而是“不用教主的产品
: 就根本无法训练&使用这些大的模型”。
: 忽然间,这个必要性被打了一个大问号。
: 进而延伸的问题:HBM、CoWoS等等原本为了在空间体积功耗等等限制下塞进最多算力的技
: 术,是不是仍然必要?还是有许多便宜的替代品可以用?
: BTW,很多人喜欢把政治问题扯进来。对我来说,探讨DS本身到底用了多少卡有意义吗?
: 没有,重点是现在实际布署R1的硬件需求就是极低;其次,它有没有抄OpenAI? 应该有吧
: ~ 不过OpenAI 的 GPTBoT 在网络上不顾版权的到处乱抓资料也不是一两天的事情了~
: 抓完还不开源勒。对投资而言,整个市场结构的变化,比这些枝微末节的小事重要多了。
: 投资总有风险,本人过去绩效不做未来获利之保证。最近诈骗猖獗,本人不收会员、不
用
: 追踪、不骗流量、不需粉丝、更不必按赞分享开启小铃铛。快讯仅供好友交流之用,如果
: 你与我看法不同,你肯定是对的千万不要被我影响。
要分两个部份来说
一个是
训练出模型
一个是
使用模型
1.训练出模型这件事,
模型数据库的资料量可以预期的,
所消耗的算力也可以预期。
所以你买过多的算力是成本浪费,
产品成本上升,竞争力下降。
不是算力越多越好,这都是要花钱的。
自然会影响到GPU的销量,
竞争者也会趁机想办法拉近跟Nvidia 之间的距离
2.模型运作
实际上就只看卡的平行处理空间大小,
这个通常跟GPU上RAM成正比关系。
也不一定要Nvidia 的卡,
只要有配套的驱动程式你用ASIC做的也行。
大部分使用场景跟
GPU平行运算速度没有很强烈的挂勾。
所以可以用在嵌入式装置上面,
那硬件选择就多了很多了。
Nvidia是靠高阶硬件赚钱,低阶的他没有竞争力。
所以他赚不到这一块。
简单来说,
当你无法一家独大,就需要面对竞争,
这时你的获利空间就会被压缩,
这是必然的结果。