Re: [讨论] DeepSeek消息的三大误区

楼主: isaacting (2312312)   2025-02-03 08:38:23
※ 引述《z1976 (z1976)》之铭言:
: 本来标题想写谣言的,但有些部份可能只是基于对技术名词不熟悉产生的误解,我姑且不
: 假设发布源头是有意为之
: 误区1:DeepSeek和微软、NVIDIA、HuggingFace等公司合作
: DeepSeek是MIT Licence的开源软件,简单说就是可以修改及商用的,它所谓的开源包含
: 训练程式码和权重,那些云端服务公司拿开源的DeepSeek上架到他们的服务平台,使用者
: 可以将DeepSeek部署到自己的应用中,这样算不算一种“合作”,我觉得2:8吧,但我问
: 了Copilot它是说不算啦
: https://i.imgur.com/hz2gtdN.jpeg
: 同样问题我拿去问DS-r1,它直接说没合作,但由于DS现在不能联网搜索最新资讯所以就
: 不参考它的答案
: 不过这些公司在发布时都有称赞DeepSeek的“优秀”,这不容否认
: 误区2. DS用PTX语言开发可以绕过CUDA
: 其实任何算法本来就可以不用cuda,那为何要让“绕过CUDA”听起来像一种魔法?我就
: 不说了
: DeepSeek 透过 PTX 语言直接呼叫 GPU 硬件资源,是基于直接实现工程师的想法而跳过
: 编译器的决策,但这并不代表没有用到CUDA硬件。相反地,你写越多PTX代码反而越依赖
: 于辉达的硬件而增加移植的难度
小弟是担任10年资历以上的韧体工程师,所以对于这讨论很有感:
我刚好也学过一点AI CUDA等东西,那我会把PTX跟CUDA做以下的类比
CUDA: C++ Python等高阶语言
PTX: 组合语言
我以前在学组合语言的时候就发现,组合语言开发出来的程式就会比c++小很多,
而且执行速度更快,但缺点就是很难维护,只要有一个 bug出现,就要有de到死
的心理准备,而且很难移植到其他的硬件平台。
譬如x86的组合语言就跟Arm的组合语言不一样,简单上来说,在x86上面开发的组合语言
是没有办法在Arm的机器上面跑。
现在很多人说 DeepSeek绕过了CUDA, 所以不必被Nvidia绑死,我看了其实满脑的黑人问
号。DeepSeek这样搞,就更只会被Nvidia绑死,因为根本无法移植到non-Nividia的
机器跑,但是这样做确实有好处,因为在现实的软件开发工作中,如果要拼效率的话
有时在c++的程式码里面会内嵌组合语言,呼叫特定的指令集(instrunction set)
来加速运算效率。
我曾经写过一个程式是跑fft的,如果只是单纯用CPU来跑的话,可能
需要10 ms左右,但如果使用intel里面支援的dsp instruction来写的话,可以快到1~2
ms,
所以至少是快5倍以上,但这程式要移植到Mac上面去,那就要整个重写,
因为Mac上面支援的dsp instruction set跟intel就是不一样。
: 误区3. 高阶芯片将无用武之地
: 无论是在DS出现之前还是之后,高阶和低阶 GPU 都能执行 AI 运算,但差异在于运算速
: 度和效率。
: DS的出现或许一定程度的削弱了AI先驱者(OpenAI等) 的垄断地位,但不能保证未来各公
: 司还是会继续在硬件资源上竞逐,毕竟预算充足下谁不想要更快?
: 另外以前就有一些分析以“租用”的角度来比较,高阶GPU不仅更快达成目标,还省下以
: 时间计费的租金成本。
高阶gpu拿来跑训练还是有必要的
没办法,当你要跑大资料的模型训练的时候 ,高阶的 gpu就真的很重要,
deepSeek的出现可以在终端上跑推理,也许不需要高端的gpu,但是要训练出
deepseek那样的模型,高阶的GPU应该还是少不了的
大概是这样

Links booklink

Contact Us: admin [ a t ] ucptt.com