Re: [新闻] 专访杜奕瑾:DeepSeek被炒作过头

楼主: sxy67230 (charlesgg)   2025-02-06 19:10:57
※ 引述 《Yirgacheffe》 之铭言:
: 3.完整新闻标题: 专访杜奕瑾:DeepSeek被炒作过头
: 4.完整新闻内文: https://www.youtube.com/watch?v=5bgeHE3rI8M
阿肥外商码农阿肥啦!
这几天都在休假陪老婆本来懒得说什么,但这咖就没什么料,还觉得自己是专家。
Deepseek R1真正的贡献就是在方法论上证明让大语言模型直接走真正的RL去鼓励模型生成
思考链的格式以及让模型去想更久就会出现语言模型的啊哈时刻(AHA moment),而且是无
论模型的大小只要强化学习给模型指导规则让AI模型持续接受指导跟环境学习模型就会在某
个时间点突然顿悟。
过去半年不管是学界或是业界其实都被OpenAI的o1闭源(连方法论都闭源)尝试了不少需要
消耗大量人工的方法,其实就是TTT那套PRM(过程奖励模型)需要大量人工去撰写人类思考
过程的标注数据,这东西业界学界也没几个团队弄得出来,毕竟人类思考过程每个人都不一
样。同样是1+1可以用很多种过程方法找到2的答案。而Deepseek R1直接开源方法论告诉你
让AI自己顿悟就好了,这跟当年的Alpha Zero让AI自己左右互搏有异曲同工之妙,就某些人
眼瞎觉得贡献很小。
当前UC Berkeley 还有史丹佛李飞飞的团队都成功复现DeepSeek r1的成果,李飞飞团队还
证明了只要1000个文档16张H100 26分钟就可以让32B的千问模型出现啊哈时刻。
只能说眼界狭隘的人看什么都蛮可拨的。

Links booklink

Contact Us: admin [ a t ] ucptt.com