楼主:
pacino (carry me)
2026-03-07 10:12:44看了这两串, 充满了疑问..
想讨论一下这个主题: token
(1) 每个LLM 都有自己的max. tokens
这是在training model时就要决定的
(2) max output tokens是让agent在送给LLM 之前处理用的,避免超过LLM model的max. to
(3) rules 没被执行,有可能是context可能超过LLM model的max. tokens, agent 主动压?
这样不就解释了两串原po的问题?
麻烦指正,若我的了解有误。