楼主:
oopFoo (3d)
2025-12-14 05:40:05※ 引述《minazukimaya (水无月真夜)》之铭言:
: 没关系,偷偷告诉你一个Insight
: 今年NeurIPS 2025有一篇超重量级的论文
: Introducing Nested Learning
就整篇不知道在讲什么。删
https://research.google/blog/introducing-nested-learning-a-new-ml-paradigm-for-continual-learning/
https://reurl.cc/8bDgag
google已经整理好重点。
"We introduce Nested Learning, a new approach to machine learning that views models as a set of smaller, nested optimization problems, each with its own internal workflow, in order to mitigate or even completely avoid the issue of “catastrophic forgetting”, where learning new tasks sacrifices proficiency on old tasks."
翻译
"我们引入Nested Learning,这是一种新的机器学习方法,它将模型视为一组较小的Nested Learning问题,每个问题都有自己的内部工作流程,以便减轻甚至完全避免“灾难性遗忘”的问题,即学习新任务会牺牲对旧任务的熟练程度。"
架构还是transformer,套入一些术语,让外行人糊涂。论文都是这样。
就很有趣,有机会改进post training效率,可能可以塞进更多功能在同样的规模模型。
就像moe(Mixture of Experts),有很大帮助,但基本结构不变。
股版的关联是,该涨的该跌的股票不变。AI现在就是往更高效率,更少资源方向走。
但应用如何赚钱还是问题,所以甲骨文大投资,如何回收,华西街现在害怕了。