https://x.com/Azure/status/1884753427059609991
刚刚看到的消息
Coming soon: Customers will be able to use distilled flavors of the DeepSeek R1 model to run locally on their Copilot+ PCs.
即将推出:客户将能够使用 DeepSeek R1 型号的精简版本在他们的 Copilot+ PC 上本地运行。
微软说以后的windows会有内建的DeepSeek AI系统
免钱的就是香?
以后玩日文游戏是不是可以靠AI实现在自己电脑上同步翻译
不再需要代理商来翻译了阿...?
作者:
guogu 2025-01-30 12:53:00疴 本地的有多垃圾谁用谁知道==
作者:
guogu 2025-01-30 12:54:00AI pc了不起也到14B而已 其实现在就能自己载来试了
作者:
Mareeta (寻找新乐章)
2025-01-30 12:58:00有竞争是好事r
作者:
guogu 2025-01-30 12:58:00大语言模型要跑 不是训练 本来就不用N卡啊A卡也能加速 我用6600XT跑7B模型大概可以到35token/sec 这速度已经比用免费gpt快了但就...很蠢 7B的智商是真的低
作者:
fan17173 (要命的小方)
2025-01-30 12:59:00然而口拍挡东挡西的出图还是得自己来
作者:
a43164910 (寺æ‰ä¼Šå…)
2025-01-30 12:59:00我寻思著日文游戏同步翻译不是早就有了吗==
作者:
guogu 2025-01-30 13:01:00确实 如果是微软帮你搞大概会挡很多东西 不如自己载当然模型本身还是会有拒绝回答的东西 但不会再套一层检查
作者: imsaint (风二) 2025-01-30 13:03:00
早就有了 现在差在各模型谁翻的最好又便宜而已
作者:
s952013 (AllenSkywalker)
2025-01-30 13:06:00A卡有救吗
日文翻译有8g显卡用sakura7b+luna就够了
作者:
guogu 2025-01-30 13:12:00a卡看你哪张 6600xt用lm studio可以加速大概35token/sec没用显卡大概只有10token/sec
作者:
pikaMH (矿工猎人)
2025-01-30 13:22:0010年前的VNR不就有这种功能了?
作者:
guogu 2025-01-30 13:28:00不过如果用deepseek 它"想"的时间常常会到10几20秒而且因为7b 8b太蠢 常常想错方向 我觉得中文对谈还不如qwen大概就数学好一点? 像9.11跟9.9谁大偶而可以答对但其实要求其他7b左右的模型仔细计算他们有时也能答对
作者:
spfy (spfy)
2025-01-30 13:36:00微软本地的AI功能原本预计只有TEAMS去背降噪 画图i2i 用自然语言查电脑的使用历程纪录 这个看要加什么功能在本地端这个应该是用内建NPU跑的功能 如果是自己架的随便要什么都可不过我是比较期待AI MAX也搞统一内存 如果VRAM 96G配DS比较大的模型(有吗)效果应该很不错?
作者:
guogu 2025-01-30 13:41:00如果你是要翻r18的东西 建议还是用llama 70b鸭鸭走那边可以免费无限用 效果比deepseek 7b好太多了
这只是在azure和github上提供而已,没有要加功能在本地端
作者: a2156700 (斯坦福桥) 2025-01-30 13:51:00
本地就算了
作者:
money501st (moneywayne501st)
2025-01-30 14:08:00你的英文是不是不太好...
作者:
strlen (strlen)
2025-01-30 14:19:00吹的应该没实际用过本地AI 蠢到爆好吗
作者:
mainsa (科科)
2025-01-30 14:19:00英文不好你可以先用你最爱的DS翻译一下 不要来闹笑话
作者: mhwsadb45 2025-01-30 16:10:00
will be able翻译内建 不愧是中国翻译