[闲聊] 本地跑 LLM

楼主: surimodo (好吃棉花糖)   2024-12-11 01:31:25
看了一下
70B 的大模型要 24G 显示卡内存等级
差不多就是 4090
要价都是 6w 以上
那感觉还不如每月订阅
还能随时取消
@@
作者: Firstshadow (IamCatづミ'_'ミづ)   2024-12-11 01:34:00
订阅是订阅api还是GUI
楼主: surimodo (好吃棉花糖)   2024-12-11 01:36:00
像是 openai 那种订阅的本地跑最高等级 LLM 太贵了 @@而且很耗 GPU 寿命

Links booklink

Contact Us: admin [ a t ] ucptt.com