来讲一个故事好了 Robert G. Gallager在1960透过类神经网络启发
根据Message Passing 写了一个叫做LDPC的更正码 根据他的paper理论可以有效
接近Shannon bound 当时被一堆人视为是一个垃圾paper 因为当时效能比Turbo-code
还烂 结果在2000年初 因为硬件和内存效能大增 这算法突然变成主流
才还给这老兄一个公道 所以算法有时候太先进 硬件不支援这也是个问题
时间回到1989你看当年和蔼可亲的Yann Lecun还在认真做学问的时候 那时候要跑
一个CNN架构有多困难
https://www.youtube.com/watch?v=FwFduRA_L6Q
现在连一个高中生都会写MNIST简单CNN堆叠 这就是因为前辈的累积写了一堆Library
和硬件的迈进 你知道在2015前写这些Deep Learning框架还是一堆啥鬼Theano
甚至还要去碰cuda 更或者要去compile Caffe这些鬼玩意 现在框架在CUDA生态圈
发展得很成熟了 套一句巴克利的话 连他阿骂都知到如何写pytorch 去训练MNIST
手写数字
啊 你要可以说 那其他家也可以这样搞自己的AI eco system啊 也是可以啦
i皇一直都想这样干 他们开发了oneAPI Deep Learning Library但我到现在还是不会用
像苏妈就比较实际点 可能会瞄准inference这块 毕竟你训练完后的Model
可以在不同平台去deploy 毕竟deploy
就不会像在training时候 各种开发得吃NVIDIA eco system 在deploy各种模型
只要能转成c/c++代码 就不在需要像以前training一样很吃eco system 同时
在优化inference时候 不同计算系统可以针对4bit/8bit/16bit加速
像Q社就开发了许多Low Level API 专门设计给自家NPU使用 可以用来优化转到他们
系统上的deployment 上
NV卖的就是铲子 当年NV在3D显示卡和ATI大战时候也是每半年到一年疯狂提升3D效能
https://www.youtube.com/watch?v=TeJ2IFae2-0
https://www.youtube.com/watch?v=JsVfKeJKJu0
如果时间回到199x 当3D Render算法出现时候 照你逻辑 你应该觉得为啥要买
啥鬼N家股票 买3dfx这家公司股票就对了 就好啦 毕竟谁都可以做游戏显卡 对吧!!!!
※ 引述《zuvio (zz)》之铭言:
: 我发现很多人陷入一个迷思
: 能做电脑的公司这么多家
: 为什么AI一定要靠NV才能用
: chatgpt就不是靠NV起家的啊
: 也是有其他公司会做服务器芯片
: 说不定intel德仪之后有更好的工业服务器芯片屌打NV
: 现在不知道为什么很多人觉得AI是建构在NV的上头
: 买一堆NV相关企业的产品
: 但实际上AI根本就是软件
: 像google搜寻引擎一样的软件
: 根本不一定需要哪间公司的服务器才能做
: 随便一家有做服务器的都能用好吗
: 之前挖矿区块链那些公司也能做AI好吗
: 所以这波AI真的在乱涨,不知道谁说只有NV能搞AI