楼主:
waitrop (嘴砲无双)
2025-09-01 08:11:46周末来闲聊美中AI芯片的故事,
这是我个人观点也会加上我对未来十年的看法,
我尽量避免中美政治议题与办公室政治学
先说结论,
这也是我当年面试高通SnapDragon Core team时,
最大的头跟我说的话:
业界一直在重复循环相同的发展,
从大到小, 小再到大,
从单机到分布式处理, 再从分布式处理到单机
他当年在IBM做Mainframe,
同时期的竞争对手是SunMicro System,
当时的情况就跟现在AI比拼算力一模一样,
大家都想尽办法做出超级电脑,
结果他们团队在离开IBM时的最后一个project,
是跟苏大妈合作的cell process, 给游戏机使用,
然后他们出来开公司做的是手机ARM CPU,
而同样的对手从SunMicrso System离开也是开公司(PA Semi)做手机ARM CPU,
又很巧合的一家被高通收购,
另一家被苹果收购,
他说他们无法想像同一个团队做比一个房间还要大的超级电脑,
最后居然是做比一个指甲还要小的手机CPU
以下是我的看法,
AI 芯片正在走过一模一样的路,
现在处在堆算力的超级电脑阶段,
之后一定会慢慢演变到EdgeAI,
模型也一定会从LLM 慢慢转变成分布式处理的SLM,
我无法给确切时间,
但是我猜两三年内会转换成分布式处理的SLM,
EdgeAI的应用应该在三到五年内会普及,
再多说就太底层的东西,
我自己也不是很懂,
反正你上网找SLM, LLM, EdgeAI 就能找到相对应的公司股票
接下来我用编年史的方式描述AI芯片的发展过程,
大概在2010年之前,
大部分的ML都还是靠CPU 运算比较多,
GPU加速有, 但是帮助不大,
真正带起这波AI浪潮的关键在2010年初期,
有人拿GPU 去跑类神经网络 (neural network),
把一个卡住四五十年的人类古老科技 (neural network),
用GPU 的算力重新定义,
也就是Deep Learning,
AI 芯片突然火红起来
在2010年初,
只有NVDA GPU能跑Deep Learning,
华为在那时候想开发类似的AI 芯片跑Deep Learning,
也就是升腾的第一版,
同时间,
寒武纪把NPU AI芯片的想法实现在手机上,
谷歌那时候也看到Deep Learning的威力, 开始开发TPU
所以第一波AI芯片的领跑者是NVDA,
谷歌, 华为, 寒武纪大概落后NVDA一两年,
不过同样是第一梯队
手机NPU的研发相对没那么困难,
所以隔不久,
很多公司也就跟着发表类似的手机NPU,
包含苹果, 高通, 谷歌 (Tensor), 联发科 (后来分出来成耐能科技),
这大概是2016年左右
但是server端的AI 芯片开发并不顺利,
很多公司尝试打入 server AI 芯片, 全都失败,
这段时间, 2016-2022年,
只有NVDA 一家寡占,
其中有一些公司陆续开发一些ASIC,
像是阿里巴巴的含光, Amazon ASIC, 谷歌TPU,
但是"每年"一直持续开发演进的只有谷歌TPU,
原因是AI应用达到瓶颈了,
Deep Learning 在影像处理跟语音辨识等等超强,
但是到了2022年,
这些应用已经到了极限, 能用到的都用了,
图像分辨率可以高达99.99% (你逃不掉天网的),
AI很像要冷却下来了,
现有的ASIC 处理影像, 语音跟手机照相, 监视器等等已经足够,
然后就迎来了AI二次革命, ChatGPT,
这个真的把业界打得措手不及,
谷歌是真的被杀的很惨,
尤其GPT这算法还是谷歌自己发明自己open source,
被别人拿自己的魔法来攻击自己,
2022年之后,
ChatGPT 带来LLM的需求,
之前所有的设计全都不适用, 不能用在LLM,
不论是NPU, TPU, 含光, 升腾全都不能用在LLM,
整个架构跟设计必须重做,
当然,
事情没有真的那么糟,
毕竟LLM (ChatGPT) 只是千万种AI应用之一,
大部分的AI应用不用LLM的话,
旧有的ASIC跟架构还是能顺顺使用
只是2022年之后,
LLM ChatGPT在风头上,
但是当时全世界只有NVDA GPU能够跑LLM,
业界必须重新设计架构来面对LLM,
这两三年业界也的确研发出新的架构可以处理LLM,
包含博通, Alab, Mrvl, 谷歌TPU等等,
华为的解法是类似博通Alab的方式用网络堆算力,
阿里巴巴跟寒武纪的架构我就不熟了,
故事讲完了