→ PogChampLUL: AI的逻辑不是应该很好吗

楼主: cities516 (安安路过)   2024-10-08 23:50:53
※ 引述 《Sougou》 之铭言:
: 我虽然没有测过官方相关的智商,
: 但我排列组合还有机率确实学得不好,
: 这也跟我自认智商只有80~90差不多相当,
: 排列组合还有机率真的好难,
: 哎,
: 高中数学最难的就是排列组合还有机率了,
: 学的太苦了。
: → PogChampLUL: AI的逻辑不是应该很好吗 10/08 22:38
: → Sougou: 没诶,我逻辑不好,这从排列组合以及机率科目看得出来 10/08 22:38
: → Sougou: 还有我算法也学得不好 10/08 22:39
这个我有经验
就是
现在的LLM玄学之一
就是你要让它自己阐述解题步骤
这样它讲一讲 答案就会更准确
如果你要他直接一步跳到答案出来 那错误率就会比较高
因为阐述解题过程 其实就是一个引导
引导LLM去产生正确答案的文字
作者: WindowDragon (贴贴)   2024-10-08 23:51:00
理解过程跟背答案的差别吗
作者: sustainer123 (caster)   2024-10-08 23:52:00
LLM大师 这块我完全不熟
作者: oin1104 (是oin的说)   2024-10-08 23:52:00
我刚好在学 大师我跟我室友跑去看咕咕噜的课
楼主: cities516 (安安路过)   2024-10-08 23:56:00
有兴趣的可以去了解一下Markov chain
作者: oin1104 (是oin的说)   2024-10-08 23:56:00
作者: lou3612 (鱼)   2024-10-08 23:57:00
Hidden markov?
楼主: cities516 (安安路过)   2024-10-08 23:57:00
Markov chain Monte Carlo method
作者: sustainer123 (caster)   2024-10-08 23:57:00
话说研究LLM之前要先解锁NLPㄇ老实说深度学习我只对CNN比较熟其他一堆都没摸过
作者: lou3612 (鱼)   2024-10-09 00:00:00
真假 这可以解释吗 还是是类似的概念
楼主: cities516 (安安路过)   2024-10-09 00:00:00
NLP摸熟后 LLM就差不多了八 我也蛮菜的 我对LLM的理解就是transformer参数堆上去的军备竞赛而已算是用机率学解释吧 毕竟语言模型本质上是透过上文猜测下一个字要产生哪个字
作者: forsakesheep (家裡蹲魯廢肥宅)   2024-10-09 00:07:00
作者: reader2714 (无毁的湖光)   2024-10-09 00:09:00
我的理解就c奖那样 因为原理是猜下面的字要怎么接所以你一步一步引导他就更多资讯能推算后面正确接出来的东西
作者: DJYOSHITAKA (Evans)   2024-10-09 00:22:00
剩我消息理论学完还是不知道你们在讲什么了

Links booklink

Contact Us: admin [ a t ] ucptt.com