: → spfy: 只要老黄CUDA还在 AMD大概永远追不上吧 05/05 15:10
这话已经早已过时,实际上因为近年AI的崛起,市场差距反而被大幅缩小,
光看效能甚至已经是部分反超,这里讲的可不是游戏用途。
相对于NVDIA的CUDA,AMD其实也有发展 ROCm。
就效能而言,两者现在早已经差不多,甚至有些地方ROCm完全是是把CUDA压在地上擦。
NVDIA的成功是因为远见的市场的布局,
在软件生态系经过超过十年的努力,与最佳化,才让人依赖CUDA。
但老黄的CUDA却有个该死的垢病,那就是打死不开放,
不开放原始码(至少不是100%开放)、不开放标准、甚至连转译都不准。
翻译成白话...
就是想用CUDA就给我乖乖买N卡啦!
想偷天换日用ZLUDA给我吃法务部的修正拳啦!
(有兴趣的可以搜寻ZLUDA专案,简单的说就是让A卡也能用CUDA的玩意儿,
实测发现差不多价位的A卡还比N卡的CUDA渲染快或是画的快,
玩家甚至在研究如何用A卡开启DLSS,目前似乎是已经初始化成功)
对于一般只会民主杀虫的消费者这点当然是根本没差。
但现在AI的应用正在蓬勃发展的现在,
CUDA打死不开放的策略有可能正在撼动其领导地位。
因为AI应用要的可不只有效能,更强调的是开放性,
不然一套好不容易写好搞好的东西那天如果换个硬件架构又要再搞一套。
机器学习换硬件换架构那是常态。
CUDA树大招风对手一堆,除了目前最有威胁性的对手的AMD ROCm,
还有个干爆者联盟准备打爆老黄。
高通、英特尔、Google 正组队打NVDIA,
打算制定一个新的、全面开放的市场标准 oneAPI,来翻转CUDA的势力。
NVDIA再继续靠CUDA这唯一的护城河可能会很危险。
作者:
tsairay (火の红宝石)
2024-05-05 17:31:00NV靠的是他抱着GG产能吧,苹果也是死抓着不放
作者:
spfy (spfy)
2024-05-05 17:32:00我以为AI模型也是用CUDA训练的欸?
作者:
asdf1944 (Arisk1944)
2024-05-05 17:36:00ROCm有那么屌AMD的股价怎么还在地上爬QQ
AI都是N卡在跑的,有缩小差距吗?这篇的论点令人存疑啊
作者:
roc074 (安安)
2024-05-05 17:39:00对对对,ROCm屌打。
作者: Cliffx 2024-05-05 17:41:00
不是 是HBM产能都被订走了
电虾版之前有一些讨论,那时提到rocm是开源所以发展快不起来,大部分都还是AMD自己慢慢去写,CUDA反而能随时找NVIDIA来支援
只要没有独占垄断被老美关爱都不会有问题,至于Intel
作者: Luciferspear 2024-05-05 17:50:00
笑
电虾也有玩过zluda的人说他的经验,zluda由于是模拟cuda环境所以有很强的版本支援问题,现在仅有特定版本的cuda有办法模拟
作者: phate06 (猴子) 2024-05-05 18:22:00
AMD的xswitch没起来怎跟nvlink 打==
作者:
Yanrei (大å°å§è¬æ²ï¼)
2024-05-05 19:27:00救救AMD
作者:
aaaaooo (路过乡民)
2024-05-05 19:43:00所以N家才是最该被喷的 可是边骂边上贡才是主流
胡扯,上面那几家只会做硬件没有一家软件能打的,每次出东西都一堆issue 都给后面的人去处理。目前只有nv自己在解issue 的
作者:
GFLR20 (阿本)
2024-05-05 19:51:00钱跟聪明的 谁屌往哪跑 梦是残酷的
作者:
cor1os (大丈夫だ问题ない)
2024-05-05 19:53:00ROCm是啥 第一次听到wwww照你们开源的标准才是正常,笑死,你们开源仔整天要人开源底下还不是自己想搞一套自己的标准起来卖弱的时候→我不管啦 你们要开源分享 强的时候→你们要跟上打不过,就加入啊,不要身体站这么直讲废话结论:等AMD这个台塑心态的发展AI,还不如期待i皇搞些新玩意