[硬件] Mac Mini M4 推荐

楼主: signal180 (123)   2025-07-18 01:53:35
如题
我的应用场景有
1. 用R跑很多机器学习模型
2. 浏览器很多分页
3. 偶尔用一下文生图
4. 想玩一下 LLM (32GB ram 至少可以跑到多少参数的模型呢?)
5. 用 whisper 语音转文字
注:手边留一台 Surface Pro 7 做 Windows能做的事跟移动需求
应用比例: 1 (25%), 2(35%), 3(5%), 4(15%), 5(20%)
我不会用到的应用场景
1. 玩游戏
2. 剪片与 3D Rendering
3. 程式开发
请问我适合哪一个规格?
1. RAM 32G / SSD 256G (NT29,700)
2. RAM 32G / SSD 512G (NT36,700)
3. RAM 48G / SSF 512G (NT56,000) *M4 Pro
谢谢各位
作者: kmd (a小调行板赋格曲)   2025-07-18 02:55:00
都考虑 M4 Pro 了,内存不打算加满吗?
作者: greg7575 (顾家)   2025-07-18 06:50:00
不缺钱当然上pro核心啊。
作者: idletime (idle)   2025-07-18 06:50:00
第一个 过保后再来扩充SSD
作者: timTan (用口头禅区分年记)   2025-07-18 08:01:00
觉得跑llm 要 m4 max . Mac mini 我体感是不够快。但如果是体验的话倒是没问题。
作者: chita0258 (大报社)   2025-07-18 11:28:00
RAM>SSD>CPU/GPU, RAM决定能跑的模型大小
楼主: signal180 (123)   2025-07-18 11:34:00
那跑请问机器学习模型呢? 顺序会是如何?因为目前还是ML会多于 LLM 一些。LLM 比较像是个人试验部署玩玩看;ML就是工作会用到
作者: chita0258 (大报社)   2025-07-18 12:59:00
M4 32RAM够用, SSD 是避免ML训练外接I/O出问题
作者: crimsonmoon9 (绯月)   2025-07-18 13:23:00
要跑训练的话要看你的dataset多大
作者: Bambe (起笑的我们:P)   2025-07-18 13:46:00
要LLM当然是RAM越大越好,32G ram根据我m2pro跑32b模型还算勉强可以跑,速度可接受
楼主: signal180 (123)   2025-07-18 13:47:00
目前资料量最大不超过百万笔;特征最高几千笔,因为有可能是文字或图片,但大部分情况是不超过100笔
作者: Bambe (起笑的我们:P)   2025-07-18 13:47:00
但要上到40b就有点喘了,要重开机释放内存才能跑
作者: pc1234 (pc1234)   2025-07-18 14:16:00
SSD可以自行升级了
作者: KINGWAP (阿姆斯撞)   2025-07-19 04:49:00
玩llm 64gb dram 是基本款要省预算的话 可以二手
作者: keeper036 (掰咖)   2025-07-19 14:20:00
丐版 Studio
作者: timTan (用口头禅区分年记)   2025-07-26 13:46:00
你的预算太低了。 Ram 觉定能跑的模型,GPU 决定速度如果只是要能动,就想办法把 RAM 拉高。https://eusholli.github.io/llm-ram-calculator/上面有 ram 的计算机

Links booklink

Contact Us: admin [ a t ] ucptt.com