[问卦] DeepSeek对行业市场的冲击很大吧!

楼主: jacknavarra (阿姆罗)   2025-02-01 15:36:05
https://x.com/QQ_Timmy/status/1885334159914393989?mx=2
舰长J快讯 重要的突破要多写一次
2025/1/31
总之,这几天是一次很烧脑的过年假期,感觉比平常还要认真研读资料
。甚至大年初一晚上还有大陆券商办专家论坛..... 这个市场实在太卷。
当然,花了这些精神做功课,就是要研究一下开年后的投资动作,究竟是新春大特卖赶快
捡便宜、还是苗头不太对脚底要抹油?很遗憾的,这几天研究下来,个人目前对硬件的看
法越来越偏向后者,但相关的AI应用却可能加速发展。
DS的论文重点以及它在算法上的突破,网络上已经有很多人分享,我就不再赘述;直接
讲几个观察到的重点吧~
1. 还记得Apple为了推销Apple Intelligence,将iPhone 全面升级到8GB以上吗?这仅仅
是为了跑一个3B 参数的小模型而已。 现在,有人成功用一张 Nvidia RTX 6000 (48GB
VRAM) 就可以跑动 DS 671bn 参数的大模型,而且这个模型还开源可以直接下载。
这代表什么意思?以后企业或个人要布建AI,可能买一台具有高阶显卡的电脑就做的到。
不用每个月花200USD订阅OpenAI、不用CSP租赁昂贵的AI server & 网络..... 在地端布
署AI 变得简单&便宜许多。这两天已经有看到朋友的公司开始研究把AI模型的布建转为
在地端执行的可能性。
2 各大厂纷纷投入:短短几天,可以看到微软、AWS、NVIDIA 都开始提供DS R1 模型的服
务。由于对硬件的要求的确不高,百万token 输出的价格只要2.19美元(作为对比:
OpenAI的输出价格为60美元/百万Token),价差接近30倍。
NVIDIA 官方也有描述:在单个NVIDIA HGX H200系统上,完整版DeepSeek-R1 671B的处理
速度可达3,872 Token/秒。仅需一个系统就可以完整运作DS R1 大模型。就算企业依然需
要利用云端来布建AI,需要的系统&价格也比之前简化许多。
3 NV关键优势不再? 这两年来,我们持续提到NV产品在大模型与高运算力方面的优势,
包括内存的使用、NVlink多卡串联、Scale-up/out 的领先等等;在探讨下一代Rubin或
更后面的产品,讨论的是一个机柜做到NVL 144/288 、如何处理这么大功耗的产品、系统
架构该如何演进等等;重点不仅仅是“教主产品做的比别人好”,而是“不用教主的产品
就根本无法训练&使用这些大的模型”。
忽然间,这个必要性被打了一个大问号。
进而延伸的问题:HBM、CoWoS等等原本为了在空间体积功耗等等限制下塞进最多算力的技
术,是不是仍然必要?还是有许多便宜的替代品可以用?
BTW,很多人喜欢把政治问题扯进来。对我来说,探讨DS本身到底用了多少卡有意义吗?
没有,重点是现在实际布署R1的硬件需求就是极低;其次,它有没有抄OpenAI? 应该有吧
~ 不过OpenAI 的 GPTBoT 在网络上不顾版权的到处乱抓资料也不是一两天的事情了~
抓完还不开源勒。对投资而言,研究整个市场结构的变化,比这些枝微末节的小事重要多
了。
投资总有风险,本人过去绩效不做未来获利之保证。最近诈骗猖獗,本人不收会员、不用
追踪、不骗流量、不需粉丝、更不必按赞分享开启小铃铛。快讯仅供好友交流之用,如果
你与我看法不同,你肯定是对的千万不要被我影响。
===
当一堆人在炒DS抄袭 盗用 其实也用了五万颗H100没什么了不起的时候
全球玩家已经有人试着把DS离线安装在手机上测试
发现这东西真的可以大幅减少对硬件的需求
而且最可怕的是这东西还开放原始码给大家使用
有人下载了671B到自己个人电脑建模
而这对市场整个行业的发展方向其实是很大的冲击吧
有没有这种开源给全球玩家去玩的八卦??

Links booklink

Contact Us: admin [ a t ] ucptt.com