楼主:
lsd25968 (cookie)
2025-07-11 08:27:56对于AI有没有意识这点
apple团队前阵子有篇论文就是探讨这个
《The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity》
简单说结论就是,LLM看似在思考,实则没有(天根我)
团队找了一些经典问题,
像是河内塔、狼羊过河等一系列简单到难的问题
给语言模型回答
当然控制变量都有抓好
像是token数都有控制以免数量多的有优势
测试方式为
第一种:直接问答案
第二种:模仿人类推导答案的过程
第一种不用说就是你直接给他一个问题,要他回答出答案
这种方式也是很多LLM使用教学中会提到尽量避免的方法
因为简单问题没什么大碍,但是一旦开始稍微复杂
就开始脑抽,常用LLM的应该都有所体会
第二种则是人类思考方式的Chain of thought
人类在导出答案过程并不是直接0到100
而是会把问题拆分后,逐一推导的
仿照这模式,对AI用引导提问让他逐步解出题目
但研究人员发现到
模型只是在使用他学习过的资料拼凑答案
或是找一些跟你提示词有关的东西回答
所以才说逻辑题目就直接把模型弄玩坏
因为模型不是根据过去推导的结果继续推导下一个结果
他只是装作有在思考而已
所以结论,有没有意识
这篇论文答案是没有
但个人来说还是很方便的工具就是
作者:
SSIKLO (西可洛)
2025-07-11 08:30:00推这篇,坐等第一篇原PO来跟你杠
这篇论文讲的是 AI 有没有“推理”能力意识是哲学问题 是无法证伪的 跟推理是两件事很多人也觉得猫狗有意识 但是猫狗不要说回答河内塔了现在没有任何证据证明猫狗能做乘法(连二位数加法都很有争议)
楼主:
lsd25968 (cookie)
2025-07-11 08:38:00无法验证的问题还能称作科学吗==那就是大家各说各的,看谁时间比较多拖死对方而已啦
意识本来就不是科学问题 我不是已经说了是哲学问题...
楼主:
lsd25968 (cookie)
2025-07-11 08:40:00好 我不懂哲学 所以拿科学去解释 就当作分享小知识吧
你真的去读这篇论文就会发现里面没有提到那怕一次“意识”(conscious) 这个字 都是用行为(behavior)和推理(reasoning) 为啥?因为意识就完全不在你可以做实验去验证的讨论范围里啊...
作者:
GAOTT (杜鹃)
2025-07-11 08:48:00有没有意识在于能不能感觉到吧比如我打一条狗 狗会痛是因为它真的痛 还会怕但我今天跟ai说 你被我打了 你有什么感觉ai说它会痛是因为程式码告诉它你现在要说你会痛 而且不会怕重点不是在于痛不痛 而是痛带给你什么
楼主:
lsd25968 (cookie)
2025-07-11 08:51:00确实,如果要纠结定义的话有点走题。觉得这话题挺有趣的进来凑热闹一下,献丑了
作者: rogerlarger (宅) 2025-07-11 09:27:00
ai不是程式码写逻辑耶,他是模型。模型是一堆参数,应该算是数据化的神经连结。
作者:
drm343 (一卡)
2025-07-11 10:10:0016f 说的那个是决定论
作者: LunaDance (s;omo;pbrupi) 2025-07-11 10:47:00
这只是说llm没法靠文字接龙那套去做逻辑推理 没有要探讨意识与思考
作者: DoLaAMan 2025-07-11 11:52:00
狗会痛是因为他的神经告诉他会痛,不然你抽掉他神经看看