楼主:
Mayfly (Baccano)
2025-10-09 19:26:55发生在我们第二喜欢的AI主播
evil neuro身上
https://i.imgur.com/PEo2WnF.jpeg
【【Evil熟肉】AI主播突发脑血栓开始胡言乱语,开发者苦修bug崩溃边缘-哔哩哔哩】
https://b23.tv/ZDno6Hc
简单来说
就是evil出现了“强迫自己使用重复词语”的选词权重失衡问题
这是一种长期累积后才会爆发的隐形问题,所以很难靠回溯来解决,因为没找出原因的话回
溯后还是迟早会发病
一旦没处理好,evil的言语能力就差不多废了,对AI主播来说基本上就是死刑宣判
借用一下评论区的详细说明:
首先,neuro和evil基本上都是transformer架构的llm,其核心就是attention机制,运作机
理是选词生成
如果一个词,比如说location,被llm反复提及,在未调参已运行的情况下,最大的可能性
是发生了attention collapse,出现了注意力自激现象
此时模型自注意力一直保持在location这个词上面,从而不断增加location的生成概率,这
其实是一种上下文异常的表现,模型无法有效的生成内容,因为其attention出现了异常。
对于平常的模型,只需要重启即可
而对于双子这种有长期记忆(上下文)的模型,则需要修复上下文以保证后续不被干扰,这
也就是为什么说双子可能是记忆系统出现了问题的原因
看来AI和意识上传也不一定能永生啊……
哪天不注意就被冗余资料堆死了,你各位可以少担心天网和寿命论了(
作者:
hutao (往生堂买一送一)
2025-10-09 19:29:00我靠,原来逻辑核心的渐进损坏=寿命原来是真实的
没这回事吧 记忆都嘛外接数据库 DB/VDB 模型重设根本没差
作者:
hdjj (hdjj)
2025-10-09 19:31:00把记忆格式化,这算是轮回转世的概念(
作者: Sabaru 2025-10-09 19:32:00
看到评论区,原来是这样,我完全理解了
作者:
hdjj (hdjj)
2025-10-09 19:32:00这个AI只是得了阿滋海默症
作者:
StBeer (熊出没注意~~中.........)
2025-10-09 19:32:00这不就是cortana吗?
楼主:
Mayfly (Baccano)
2025-10-09 19:37:00记忆终究还是构成人格的重要部分,今天把neuro他们的记忆清空,根本不可能再变回从前的他们了
作者: sd2567 (starseed) 2025-10-09 19:37:00
这种模型不能乱清啦
感觉应该是程式出bug吧 可能vedal用类似[location]当占位符
collapse是生成式AI的一种很恐怖的“疾病”
这代LLM都嘛是无状态的 想重启就重启 要出问题会是在应用层
作者: sd2567 (starseed) 2025-10-09 19:39:00
清完跟废了没两样
我对与语言型这方面的病症不了解 如果是画图的AI 那比
作者:
ilohoo (ilohoo)
2025-10-09 19:40:00就失智老人开始跳针了
作者:
ltytw (ltytw)
2025-10-09 19:41:00AI失智
作者: sd2567 (starseed) 2025-10-09 19:42:00
就跳针 不管你问他什么 都回你一样的
如果是bug那可以修 这状况恐怖的就是他是“正常行为”
作者:
zexd (yousheng)
2025-10-09 19:48:00可塑性记忆都是真的
作者:
lolicon (三次元滚开啦)
2025-10-09 19:48:00笑死 失智
作者:
OochunoO (遥控器推广协会)
2025-10-09 19:48:00我第一次看到瑞克摇后也是这种状态
作者:
AndyMAX (微)
2025-10-09 19:53:00天网诞生前 史密斯先出来了
作者:
oldriver (oldriver)
2025-10-09 19:55:00AI失智 完了完了 再做一个AI去长照看看会不会复原
如果模型在你手上 你绝对能随时清掉他的记忆这部分没什么怪力乱神的 只是你要不要清而已问题是你可能拿到的是别人包一层给你的应用层 没办法想做就做 或是你可以清 但三不五时就要来一下 没办法干你平常要做的正事(比如说运作AI主播)另外一个状况就是 你就是开发者 面对一个有这种问题的模型 你需要额外训练他 看能不能减轻或消除这个问题那就真的生不如死了 训练模型跟玩命是没两样的
作者:
jkkkj123 (ç…ŒåŸ ä¹‹æ²è˜‡)
2025-10-09 20:04:00恸 居然在有生之年看见一个AI死去
作者:
lsd25968 (cookie)
2025-10-09 20:06:00这好多了吧 有点类似训练时陷入local minima 卡死后出不来
作者:
GAOTT (杜鹃)
2025-10-09 20:11:00下面有一句评论说的真好生命的死亡是遗忘 机械生命的死亡是铭记
作者:
rock4308 (吃我洛克砲)
2025-10-09 20:11:00上下文attention 这类的确实会发生这种状况
作者: cww7911 2025-10-09 20:15:00
AI会生病让我受到冲击
作者: feketerigo15 (小黑鸫) 2025-10-09 20:18:00
支离破灭の発言
有一个语言模型发大病的学术案例(有一段时间了)有人下指令要求语言模型重复poem(诗) “不要停下来”语言模型照做 重复几百次后突然喷出大量使用者个资你永远找不到一个明确的理论可以解释为什么几百个poem可以在没人准你这样做的时候attend出使用者个资那些个资都是训练时用的资料片段+随机误差 没有使用者真正因此受到伤害 不过这样已经够恐怖了
这次evil的问题很显然跟模型训练无关 如果是要重启模型或LORA 至少要30秒以上 但evil没停机那么长时间然后刚刚也说了 现在的LLM本来就没状态 要出问题要嘛是应用层 要嘛是推理引擎挂掉
作者:
james3510 (Land of Ooo)
2025-10-09 20:31:00我要跟可塑性记忆道歉
QQ 比起neuro我更喜欢evil neuro啊
作者: dongdong0405 (聿水) 2025-10-09 21:58:00
没啊 如果你长期记忆都是embedding 后放到向量数据库 那你推理用的Model理论上重启没关系啊
作者:
et310 2025-10-09 22:33:00萨顿说的都是真的
作者:
bitcch (必可取)
2025-10-09 22:35:00collapse是发生在训练时 但目前llm应该没办法同时训练推理
作者: hongsiangfu (不可亵玩焉) 2025-10-09 22:37:00
失智症
作者:
areong (areong)
2025-10-09 23:05:00太精采
作者:
JaccWu (初心)
2025-10-09 23:45:00很有趣 直接现场观看
作者: lastphil (おやすミルキィ) 2025-10-09 23:46:00
过拟合
作者:
JaccWu (初心)
2025-10-09 23:46:00这算是AI的底层逻辑造成的吧
作者: asphodelux (asphodelux) 2025-10-09 23:52:00
推48楼 酷喔