Re: [新闻] DeepSeek传偷用5万颗辉达H100芯片

楼主: ggian123 (起)   2025-01-27 19:31:04
如题
就是纯来黑的
看了一下被采访的人 美国亚裔不意外香蕉人
美国这些搞生成式ai的就是被看破手脚
尤其是那个奥特曼 就是来纯搞钱的
直接看deepseek内部人员 截了三点
在去年五月的deepseekv2推出时
在知乎的回答
——————-
罗福莉
DeepSeek
- 亲自答 此回答由问题相关方亲自撰写
今天忙飞,深夜,简单写几点:
1. 单论 DeepSeek-V2 模型*的中文水平(来自 20 多个微信群用户反馈),是真实处在
国内外闭源模型的第一梯队(GPT4、文心 4.0*等),因为没做 RAG(检索增强*)等功能
,所以实际在官网(@deepseek.com)的体感可能略微没那么惊艳,但这不妨碍 API 效果
哦!外加 1 元 / 百万输入 Tokens 的价格,只有 GPT4 价格的 1/100,性价比之王!
2. 怎么兼顾模型效果和成本的?基本纯靠:模型结构创新(MLA+DeepSeekMoE)+ 超强In
fra。MLA妙就妙在,它既是 training efficient MQA,也是 inference efficient MHA
。从今天起,放弃MHA/GQA,全面拥抱MLA吧。同时,不严谨来说,DeepSeekMoE也算是开
启了“共享expert+细粒度expert分割”的sparse框架风
作者: event1408472 (醒世明灯)   2025-01-27 19:34:00
仇中的会看不进去
作者: tom501062003 (池袋情报商)   2025-01-27 19:40:00
葬送的福利连
作者: turndown4wat (wat)   2025-01-27 19:59:00
台湾AI人才很多好吗印度可能要先改善空污不然谁敢去
作者: sunpedro0202 (Pedro)   2025-01-27 20:00:00
这是来钓鱼的吗XDD
作者: lolpklol0975 (鬼邢)   2025-01-27 20:30:00
作者: niburger1001 (妮妮汉堡)   2025-01-27 20:40:00
葬送的芙莉莲
作者: gogogogo3333 (gogogogo33333)   2025-01-27 22:43:00
罗福利 95后后,年薪破亿。

Links booklink

Contact Us: admin [ a t ] ucptt.com