楼主:
bebopfan (bebopfan)
2025-12-09 11:53:26骇客任务片段:
男主: "妳懂直升机吗?"
女主: "还不懂."
(三秒后
女主: "现在懂了."
作者:
James2005 (VioletEvergarden)
2025-12-09 11:55:00变身国王高刚:知道了.jpg
作者:
npc776 (二次元居民)
2025-12-09 11:56:00你是在说全人类都变成新人类呢 还是全人类都变成橘子汁?
作者:
James2005 (VioletEvergarden)
2025-12-09 11:56:00许多人都以为叫AI算零除零(0/0),他们就会自爆了XD其实AI根本不怕这种运算
作者: gn02218236 2025-12-09 11:58:00
AI都不用3秒吧,骇客任务不是就告诉你人类再怎样都在AI的控制之下吗?“救世主”也是AI设计好的循环的一部分
作者:
labbat (labbat)
2025-12-09 12:02:00零除以零是报无效操作错误啊,要一除以零才是报除零错误
老板问你懂不懂的时候,我也会秒懂啊AI就没有生存压力
如果是说现在的语言模型,其实要让它学新东西超级麻烦语言模型训练初期会灌入网络上爬到的巨量资料,这时候
它可以学到一些知识,然后和其他东西混在一起而无用化后面的训练过程要唤醒这些知识是相对容易很多的但是要新增从未学过的知识,难度是公认的超高又危险人类的学习能力反而屌打这个麻烦的性质
作者:
jupto (op)
2025-12-09 12:43:00人类其实也是用一样方式在学习 只是人类持续在现实世界训练等同有无数人在当你的人为监控所以不会走歪而已现在AI的问题就是规模与成本 它仍然只有在作为高效工具时才比人类“更划算”
那就是对称加密你说的东西 对人与人的沟通来说 就是对称加密基于某种不公开少数人知道的共识对应的密码LLM的计算终究是广义与高维度的HMM 但依然是统计对刻意设计的编码 现在的LLM是没有合理时间内的破解与推理能力的 至于量子计算 那跟核融合一样目前是骗钱用的不维持个理论可行状态 就拿不到补助与持续投资了这些投资其实主要会用在基础科学研究上人是不是用同样的方法在学习 这要打一个大问号目前的ANN核心的理论是从泛函分析出发的Stone-Weierstrass 定理 这定理说明 可以用单纯的刺激-回应小型函数(一个类神经节点的函数)无限近似任何机率分布函数 只要有够高的维度与够多的节点但并没有说明怎么做到 是不是真的能做到所以说人是用同样的方法学习本身是个错误的论述AI那是统计学的结论LLM依然是统计学 没有其他 但是是可以靠算力大力出奇蹟的统计学 不代表能够真的实现AGI因为人脑也不完全是透过贝氏理论推论的LLM目前的行为是使用者的镜子另外有兴趣的话 Transformer模式真正的革命是平行化因为那就是在算向量内积
作者:
jupto (op)
2025-12-09 15:02:00人脑运作确定就是靠超多层超大量的刺激回应单元完成的啊自己都说机率分布与刺激回馈两者会呈现出一样结果 如果这个基础论述本身无错表示我的设备性能到位就能做出一个完全一样功能的人脑