Re: [讨论] 中国推出的 MiniMax 模型还满强的

楼主: s78513221 (TERIS)   2026-02-24 18:51:21
我是业余开发无实际专案经验
试了一下OpenCode+OhMyOpenCode的组合方案
搭配MiniMax M2.5+GLM5组队是相当的强悍
不输ClaudeCode的Sonnet4.6+haiku4.5付费组合
(Opus去哪了?Pro方案用这连个作业都写不完)
最惊喜的还是OMO善于分工规画,自带skill跟mcp做事
又能并发执行子任务彻底发挥免费模型的使用上限
对一些简单的网站开发架设或做小程式都还不错
以前这些功能只能上网爬文找类似案例小修小改
看到Anthropic自己偷人类的智慧成果蒸馏模型
既不开源权重又指控别人蒸馏它的模型,在那叫什么
只能拜托中国多蒸些,便宜模型才能使更多开发者加入Ai开发
他们也是花API钱去蒸出来的又不是没付钱,而且还开源
不忍谴责这些LLM佛祖们给我用上便宜10倍的Api啊!
作者: sinclaireche (s950449)   2026-02-24 20:09:00
没用过opus或gpt 5.3 codex是真的不用比了token单价便宜 但没告诉你的是还要多花好几倍token换来比较差的品质过来人的血泪教训
作者: gofigure (平行世界)   2026-02-24 20:49:00
如果你连pretrain和sft的know distill 都搞不清楚啊墙国人何必假装到处洗文 LOL
作者: sinclaireche (s950449)   2026-02-24 21:34:00
简单来说 其他家帐面上便宜好几倍 但Claude跟Codex用户还是那么多 就说明了原因
作者: strlen (strlen)   2026-02-24 21:47:00
codex不是也有免费额度?谁要用中国垃圾蒸馏AI?Anthropic假道学令人作呕是一回事 中国拉机AI难用另一回事
作者: jobintan (Robin Artemstein)   2026-02-25 07:36:00
DeepSeek貌似也是蒸馏ChapGPT,但就质量来说,倒是不如ChatGPT。
作者: rodion (r-kan/reminder)   2026-02-25 09:40:00
楼上质量(X) 支量(O)
作者: sinclaireche (s950449)   2026-02-25 09:42:00
我觉得你没看到多花的token数 算一算价格就差不多了
作者: ssccg (23)   2026-02-25 11:25:00
我觉得他说的很清楚,不是没看到,是根本没花,做不来的直接不做是要比什么然后专业用户的想法应该不是缺不缺小钱,对工作有没有帮助是把你自己当老板,要花1万请专业还是很多个几百元的工读生

Links booklink

Contact Us: admin [ a t ] ucptt.com