[新闻] AI变BI?研究机构爆DeepSeek惨况

楼主: Su22 (装配匠)   2025-07-06 13:16:40
原文标题:AI变BI?研究机构爆DeepSeek惨况
※请勿删减原文标题
原文连结:https://reurl.cc/qYD3YN
※网址超过一行过长请用缩网址工具
发布时间:2025/07/05 17:38
※请以原文网页/报纸之发布时间为准
记者署名:陈丽珠
※原文无记载者得留空
原文内容:
中国AI新创DeepSeek 在今年初发布“DeepSeek-R1”大模型,打着成本低廉及宣称性能与
OpenAI相当,一度血洗华尔街。随后被爆出用户个资被“送中”,遭到多国政府机构及企
业封杀。半导体研究机构SemiAnalysis最新研究指出,DeepSeek的流量和用户已呈现僵尸
化,市占率下滑。更惨的是传出辉达H20芯片禁输中,导致新一代的R2 开发难产。
《SemiAnalysis》指出,中国DeepSeek R1 发布后,震撼股市和西方AI产业界,RI发布后
,其用户应用流量激增,市占率也随之大幅提升。不过,DeepSeek爆炸性成长并未跟上其
他 AI 应用的步伐,DeepSeek 的市占率也随之下滑。
报告称,DeepSeek 流量的绝对值下降,数据更加严峻。反观其他领先的 AI 模型供应商
在同一时间段内的用户数量,都取得令人印象深刻的增长。
为什么使用者要转向其他开源供应商呢?答案在于Token(代币)经济学以及为模型提供
服务的 KPI 之间的权衡。Token如同是 AI 阅读与写作时的计数单位,用户输入一段文字
会被拆解成很多Token;AI输出的回复也会包含很多Token,AI的收费依据这些Token的总
数计算。
报告说,DeepSeek 能够将其产品定价如此低廉的一个重要原因是,他们强制用户等待数
秒,相比之下,其他一些提供者以相同的价格提供该服务,但回应延迟时间要短得多。报
告指,DeepSeek 专注于实现通用人工智能(AGI),对最终用户体验不感兴趣。
报告指出,为了将算力成本压至极限,DeepSeek在服务品质做出妥协。官方平台的首
Token延迟(First Token Latency)动辄数秒,远低于业界对“即时”响应的期待;与之
形成鲜明对比的是,Parasail、Friendli等第三方平台仅收取2到4美元,即可获得高达
100 万Token的几乎零延迟体验。
若与更大规模云厂商相比,差距仍明显。微软Azure托管DeepSeek模型的价格约为官方2.5
倍,但首Token延迟却足足少了25秒,CP值优势一目了然。值得注意的是,即使以相同延
迟水平衡量价格,DeepSeek也并非最佳选择,众多托管商已趁机在价格战上抢占先机。
报告直指,在AI的世界里,算力就是王道。美国的出口管制限缩了中国AI模型的算力。
DeepSeek只能将最少的算力用于对外推理服务,而将绝大部分算力资源保留给内部研发。
心得/评论:
难怪之前不少人说DeepSeek回应时间很慢...
之前年初时
很多人吹DeepSeek出来后就不需要那么多的算力
但现在看来并非如此
当初吹的人都被事实打脸惹!
辉达股价近期也来到新高
※必需填写满30正体中文字,无意义者板规处分
作者: chenzu740125 (chenzu)   2025-07-06 13:19:00
中吹仔: Deepseek还是遥遥领先...
作者: Like5566Like (㊣ 永远的5566 ㊣)   2025-07-06 13:19:00
支吹不喜欢这篇
作者: necrophagist (Hogong-Yeah)   2025-07-06 13:54:00
试没几天就知道难用的东西 硬是吹
作者: turndown4wat (wat)   2025-07-06 14:16:00
作者: Grothendieck (A. Grothendieck)   2025-07-06 15:34:00
重点是有够难用吧
作者: fantasyscure (台湾狼)   2025-07-06 16:42:00
不需要更多的算力本来就是个错误的逻辑
作者: sunpedro0202 (Pedro)   2025-07-06 17:24:00
gpt claude gemini 强太多了付费AI循环已经产生
作者: madeinheaven   2025-07-06 20:25:00
CHATGPT推出改图功能 DEEPSEEK就看不到车尾登了

Links booklink

Contact Us: admin [ a t ] ucptt.com