Re: [闲聊] 传Coreweave是Nvidia和Blackroc

楼主: LDPC (Channel Coding)   2023-09-08 00:16:32
我有在follow coreweave 但是朝另外一个方向 Coreweave现在规划就是死抱老黄和
微软大腿 他提供的就是第三方租借算力 其他类似的公司有Amazon/Google/Lambda
然后Coreweave也有跟微软签约提供算力
老黄这阵子看得出来 他有在朝算力租借这边布局
在讲这些玩家之前 先科普一下如果踏入AI产业 你大概会选择三个方向其中一个
AI开发者有大概三个族群
1.Train From Scratch (大公司玩家 每年AI顶会三大会 会看到他们出现刷存在感)
代表产物:BLIP(Saleforce)/CLIP(OpenAI)/DALLE-2(OPENAI)/LLAMA(Meta)/Palm-e(Google)
2.Fine Tune/Adapter Design: 就是拿上面几家公司开源的大模型作微调 或者增加套件
来整合下游任务 就算是如此也是吃一堆GPU运算 但比上面动辄百颗千颗GPU 小许多
3.Deployment (通常是Inference族群)
开发者就是把模型部署在终端 针对各种特别User Scenario来做优化AI模型 这块会是
AMD将来的市场 目前市值估计是1跟2的10倍 需要的人就是做c code和模型转变(ONNX)
Meta目前也在这布局
在Foundation Model大放异彩后 以及开源平台后Hugging Face兴起
(Hugging Face 这家如果有股票 一定要买爆他) 造成许多优秀AI相关人才
包含工程师 都想跳入2跟3的领域 来做面对B2C的AI产业
这部分都属于Foundation Model下游任务 在早期李飞飞ImageNet时代
这些特制化面向产业的 以前还可以用GTX/RTX这类游戏显卡 去做测试和开发和部署
现在你大概得要有V100/A100/H100才行 但这些玩意只有大公司有
于是老黄目前看来想干的就是 解锁这门槛 让全世界新创 小型公司 任何优秀人才
能加入这产业 在透过Hugging Face 你现在想做LLM 只要套用几个现成模板
你就可以做下游特制化产物 老黄开发了一堆套件诸如AI WorkBench 就像你在用SAAS
Matlab这类软件 搭个几个套件 你就可以开发属于你自己需求下游产物模型
Pytorch ENG Head也跑去开了一个Firework公司 走这条路
原本老黄是寄望云端三大(Google/MS/Amazon)帮他推租借算力平台 但Amazon已经前后表明
他们更希望开发自己的算力平台 而Google/MS随时都有可能会跳船 那老黄目前感觉就是
想养一个亲儿子跟他们对干又或者当替代方案...Coreweaver据传已经要在德州盖DGX
Cloud 做开放AI平台和算力租借整合 据理解DGX这类型Cloud就算是上面三大云玩家也是需要重新盖机房
无法拿以前的infra来升级 因此上面三个玩家也是需要花钱盖厂 就某种意义 并没有
比Coreweave来的更领先
但只要是聪明人都会注意到 这块租借算力市场的矛盾性 大公司不会希望上面事情发生
最糟糕情况就是3这块会各家公司分走 甚至危机到1这个Training市场
也就是老黄不想看到的 挑战cuda权威 而老黄感觉是要去抢云市场租借算力这事情
让更多小资本玩家进入这市场 让他资本做大 更依赖老黄开发工具体系 打破大公司垄断
大模型 进而在算力租借市场开发新的赚钱项目 越多玩家 他就能卖越多铲子
如果老黄成功打造自己的算力租借软硬整合云平台(虽然我不看好) 那我会去解锁我CD帐户继续加码
但我也能理解老黄 如果他不这样干 他没办法持续垄断这领域 QQ 总之 继续在旁边吃瓜
看这群大佬互打
作者: herculus6502 (金麟岂是池中物)   2023-09-08 06:00:00

Links booklink

Contact Us: admin [ a t ] ucptt.com