我算半个业内人士,目前最主要的硬件区别在于有没有NPU这个运算单元。
根据微软老爸爸的定义,AI PC必须要比普通电脑多出NPU,也就是神经网络处理单元,而且在软件上还要内建Copilot( 微软的人工智能)。
也就是说,在硬件层面会多一个新东西之外,软件层面也必须为人工智能开路,像是更好的调度,或是比先前CPU+GPU还要更有能耗比等等。
这就是我目前能想到的差别,但对于普通消费者而言,这只不过是换一个名词定义“顶尖性能”而已。
现今的CPU+GPU已经能处理大部分本地端应用,甚至NPU的效能还远不及现在的解决方案,所以结论就是看看就好,这概念还太新,对日常使用还没有关键性影响。
作者: qwork 2024-06-05 23:00:00
不合微软规定也能挂AI PC吧
作者:
medama ( )
2024-06-05 23:01:00现在coplitor会调用NPU的性能吗?
作者:
gino0717 (gino0717)
2024-06-05 23:03:00对象客户是老板要你用内显做AI的那种公司
M软搞ai pc这整串目的很好懂现在尼看得到的ai pc都面向轻薄本战略目标94针对阿婆MBA
AI PC也有人用TOPs定义 超过多少才算copilot也是拿chatgpt数据库去用的copilot 会不会用到npu,会 影像处理部分就会你需要本地端快速处理的就会用到,其他还是都上云端
作者:
guaz (guaz)
2024-06-05 23:08:00因应安全性有些应用只能在local处理,会这样发展不奇怪吧
作者: mic73528 (jazzy) 2024-06-05 23:08:00
高通的到底好不好用阿?左打I家A家右打M系列诶
作者:
medama ( )
2024-06-05 23:08:00原来如此
他主打是随着你使用,你的copilot会越来越接近你习惯
作者:
aaaaooo (路过乡民)
2024-06-05 23:09:00npu这东西水果都搞多久了 软软现在喊这个唬不到人的
作者:
cchh179 (howie)
2024-06-05 23:09:00话说npu跟独立显卡 哪个跑ai比较快啊?
这东西就是让你能用便宜的NPU在local端跑小模型用的不然现在内显的intel连7B的模型都跑得零零落落
作者:
Arbin (路人_Lv菜逼八)
2024-06-06 04:36:0023楼太酸了吧 不要这样戳破人==