楼主:
huabandd (我是阿肥巴你头)
2025-06-15 23:01:12https://is.gd/U7lWC8
看到一个影片,非新闻报导,仅创作者想法
讨论苹果揭露关于人工智能当中的最大谎言
之前也看过一个影片指出
AI无法产出指针在10:10以外的手表
(网络手表图片通常指针停留在10:10)
自己尝试过几次确实是这样
因为AI的训练是基于现有大量资料
去产生一个与大量资料相似的产物给你
无法产生未曾有过资料的产物
(以上为个人猜测,若错误请指正)
虽然现在已有研究尝试将AI接入人类神经元
未来思考的方式有可能因此改变
不再只是记忆,而是真正的推理
(但是这好像也是一件满恐怖的事情?)
如果说给AI一个围棋组,但不教他玩法
也不让他参考棋类玩法,让他自行摸索
就像婴儿拿到玩具后自己乱玩那样
AI能够自行生成玩法是不是就算是成功?
中文翻译
苹果刚刚揭露了人工智能中最大的谎言,即“思考”的假象,证明了像 Claude、Deepseek-
R1 和 OpenAI 的 o3-mini 等推理模型实际上并不会思考。苹果没有重复使用旧有的数学问
题,而是创造了这些模型从未见过全新谜题。结果令人震惊。
对于简单问题,标准 AI 模型表现优于昂贵的推理模型,同时消耗更少的资源。对于中等复
杂度问题,推理模型显示出一些优势,但对于模拟现实世界情境的高复杂度问题,两种类型
的模型都崩溃到 0% 的准确度。
这是确凿的证据:苹果给予 AI 模型逐步的算法,就像给某人食谱一样,但它们仍在相同
的门槛下失败了。这证明它们无法遵循逻辑指令。该研究没有发现任何形式推理的证据,得
出结论认为其行为最好用复杂的模式匹配来解释。
简单地更改名称和问题会显著降低性能。苹果测试了河内塔(Tower of Hanoi)谜题,模型
在超过 100 步的移动中成功了,但在新颖的渡河谜题中仅仅 4 步后就失败了。它们是记忆
模式,而不是进行逻辑推理。
随着问题变得越来越难,“思考”模型使用的 token 越来越少,放弃得更快,而不是更深
入地思考。即使无限的计算资源也无济于事。这揭示了数十亿美元的 AI 投资是建立在错误
前提上的。
公司将复杂的模式匹配宣传为真正的推理,误导消费者对 AI 能力的认知。我们离通用人工
智慧(AGI)的距离并没有大家想像的那么近;我们正在处理的是非常复杂的自动完成系统
。当先进的 AI 推理模型连遵循简单指令都失败时,我们是否正生活在一个建立在幻想之上
的 AI 炒作泡沫中?
英文原文
Apple just exposed the biggest lie in AI with the illusion of "thinking," provin
g that reasoning models like Claude, Deepseek-R1, and OpenAI's o3-mini don't act
ually think. Instead of recycling math problems, Apple created brand new puzzles
these models had never seen. The results were shocking.
For simple problems, standard AI models outperformed expensive reasoning models
while using fewer resources. For medium complexity, reasoning models showed some
advantage, but for high complexity problems that mirror real-world scenarios, b
oth types collapsed to 0% accuracy.
Here's the damning evidence: Apple gave AI models step-by-step algorithms, like
giving someone a recipe, and they still failed at the same thresholds. This prov
es they can't follow logical instructions. The study found no evidence of formal
reasoning, concluding behavior is better explained by sophisticated pattern mat
ching.
Simply changing names and problems degraded performance dramatically. Apple test
ed Tower of Hanoi puzzles, where models succeeded with 100-plus moves but failed
at novel river crossing puzzles after just 4 moves. They memorized patterns rat
her than reasoned logically.
As problems got harder, "thinking" models used fewer tokens and gave up faster i
nstead of thinking deeper. Even unlimited computational resources couldn't help.
This exposes that billions in AI investment are based on false premises.
Companies market sophisticated pattern matching as genuine reasoning, misleading
consumers about AI capabilities. We are not as close to AGI as everyone thinks;
we're dealing with very sophisticated autocomplete systems. When advanced AI re
asoning models fail at following simple instructions, are we living in an AI hyp
e bubble built on illusions?
作为工具使用,只要确实能突破人类生产效能的上限就有其成功性啊,能不能演化作为智慧生命体独立运作是另一个发展方向吧?
作者: NoMomoNoLife (\MOMO/\MOMO/) 2025-06-15 23:32:00
本来就还不行,然后你说围棋那个早就有了,alphago时代还不是现在LLM时代就有了。
作者: s56565566123 (OnlyRumble) 2025-06-15 23:39:00
好了啦
作者: kusotoripeko (好油喔) 2025-06-15 23:41:00
光是帮忙整理过往资料就帮忙发现很多材料的新组合了还有前几年陆续帮天文学家整理过去认为没料的纪录结果当年一些事务没发现就只是因为太繁杂没注意到量子概念股就真的不知道了,有科学量测以外的例子?
花大钱时间讲一个大家都知道的东西 这团队应该通通开除
作者: zombiepigman 2025-06-16 05:17:00
完了 超大鬼故事
作者: GurrenLagann (红莲螺岩) 2025-06-16 06:03:00
@misthide
作者: dongdong0405 (聿水) 2025-06-16 07:18:00
确实啊 现在严格上来说都是模仿 图灵机不可能产生强人工智能感觉很多理盲看到Reasoning 就以为它会思考了 两回事吧= =
作者: dan06honmono (丹) 2025-06-16 08:14:00
ai目前生成每个字都还是机率的组合
AI思考的话人类真的会灭亡,因为人是不完美的,但AI在人类定的制度下是可以完美。
作者: stanley86300 (Stanley) 2025-06-16 10:34:00
应该没有哪家LLM说过自己的模型会思考吧 苹果只是想吃不到葡萄就说葡萄酸 有够可怜的
有心嘲讽不如努力开发能思考的AI没想到苹果也懂比烂了
你这样人家怎么骗股东钱Ai假如一旦会思考有欲望天网马上来你反应的时间都不会有