楼主:
pujos (lks)
2025-07-07 20:25:49现在哪个模型都不可能
承担这种任务啊
这不是使用前就该知道的事?
让你整个模型训练世界完美毫无破绽
问题是输入端有限制啊
该LLM上限多少Token没讲
拿GPT4来说
目前GPT4可用Token上限号称128K
实际不影响效能就20~30K
这Token数量
换算成中文字对话速度记忆量
约3~4个小时就耗尽了
你拿它搞一个月...赔不死你才怪
它其实是因为记忆力耗尽
一直再不断重置
当然就有你看到那些
前文不对后语
看起来乱回乱记一通的结果
再来LLM是“语言预测模型”
它只关心输出符不符合“逻辑”
对错不重要
简而言之
就是负责话唬烂的
找话唬烂的来当店长
会有什么结果不是显而易见的事吗
※ 引述《pl132 (pl132)》之铭言:
: 备注请放最后面 违者新闻文章删除
: 1.媒体来源:
: ※ 例如苹果日报、自由时报(请参考版规下方的核准媒体名单)
: ※ Yahoo、MSN、LINE等非直接官方新闻连结不被允许
: ettoday
: 2.记者署名:
: ※ 若新闻没有记者名字或编辑名字,请勿张贴,否则会被水桶14天
: ※ 外电至少要有来源或编辑 如:法新社
: 记者陈致平/综合报导
: 3.完整新闻标题:
: ※ 标题没有完整写出来