苹果的AI是三阶段的
1.本地跑3B以下的各式模型
2.跑不动的上”苹果自己”组的云端来跑
3.你还不满意可以Call外援-ChatGPT
看懂了吗,Chat GPT最大的作用就是上WWDC露面拉一下股价,他跟浏览器的默认引擎一样,
你不喜欢Google就换Bing,是具备高可替代性的。现在还在AI的高速发展期,苹果错过了浏
览器时代,这一次苹果显然有云端算力也要抓在自己手里的野心。
iPhone 15和14 Pro以下的用户会抱怨,本地跑不动的不是可以上云端,为什么不下放?
这就回到上面说的,大部分的功能其实都在本地跑完了,要上苹果私有云端跑的也是一小部
分,而4GB和6GB ram机型的用户如果要跑新的AI功能,基本上所有功能都得交给苹果私有云
端运算。
而这就造成了两个问题:
1.很多原本设定本地跑的小功能上云端延迟变大很多,体验变糟糕。
2.苹果私有云端目前算力还不行,目前的云端是由大量M2 Ultra组成的,但显然和其他使用
NV显卡的大模型厂商有很大差距,现在给8GB以上大部分都能在本地跑AI的用户算力都捉襟见
肘。
归根结底,苹果还是被这么多年叩叩搜搜的Ram给反噬了(又或者苹果乐观其成,毕竟到15系
列的这个时间节点,苹果不可能不知道自家AI研发的进展,苹果也知道15系列基础款放6GB是
一出就被淘汰的,但他还是只给6GB)
结论就是苹果目前在硬件的发展目标,是云端的硬件和大模型都是自己的,所以苹果不会买
NV的计算卡,而是采用自家芯片,之后继续迭代M4 ultra extreme…等等。
所以短期内苹果云端算力是个大问题,苹果走本地+云端双刀流AI,本地AI能力不足的,就只
能一刀切掉不给用AI了,以免苹果目前的云端算力撑不住和促进消费换代,所以可以预测到
,16系列肯定是全系列8GB起步的。