楼主:
ZMTL (夜风/潇湘 VR板已经开板!)
2025-09-10 08:51:38※ 引述《yokann (我怕练太壮)》之铭言:
: ※ 引述《htps0763 (Fish~月~)》之铭言:
: : 感觉可以买来玩音G了
: : 之前还没退世界计画的时候,还特别搞一只安卓来玩
: : 120Hz的音G就是爽
让我一篇文贴三个板ya
其实最大的差异应该是 RAM。
对我这个 AI 领域的工作者,其实还是有听到苹果提 AI ,
查了一下 Reddit 也有人在讨论
“"even more RAM for running local language models"”
这句话应该能映证 17Pro 的 Ram “应该” 多于 17 跟 16Pro,
流出情报无误的话是 12G。
*根据隔壁板友指出,
17用8GB-LPDDR5,Air是12GB-LPDDR5,Pro跟Pro Max皆为12GB-LPDDR5X
-
至于 4G 的 RAM 差异,或者本地跑语言模型到底有没有用?
可以参考 Edge AI 这个这一两年业界常常会提到的观念:
https://ikala.ai/zh-tw/blog/ai-technology/edge-ai-introduction/
过去如果你什么AI需求都是连网,会有两个问题
1.回应时间过长
2.资讯安全疑虑
这年头的智慧装置都在拼命堆本地的运算能力等微型语言模型能力越来越强
(像是open ai最近就开源了gpt-oss-20b),RAM 的大小决定了装置 AI 能力的上限。
我认为苹果有提这么一句代表他们对 AI 发展是有一定程度的意识的。
but
对,看起来是还没准备好,所以吹都不敢吹...
但官网还是有强调17系列的Apple Intelligence
https://www.apple.com/tw/apple-intelligence/
PS.
本地语言模型通常不会单独使用,
Apple Intelligence 之前提到是把机敏资料跟一些需要快速响应的需求(翻译?)
放在本地,然后其他再去云端处理。
问题其实是 Apple 在云端,自己的大语言模型应该是失败了,
到底要跟哪家合作?怎么对接?这段看起来严重卡关了。