Re: [新闻] 甲骨文股价暴跌超10%!订单积压越来越多 “烧钱”砸AI

楼主: googstar (股大湿)   2025-12-13 23:32:00
※ 引述《minazukimaya (水无月真夜)》之铭言:
: 没关系,偷偷告诉你一个Insight
: 今年NeurIPS 2025有一篇超重量级的论文
: Introducing Nested Learning
: 这篇文论的重要程度不亚于Attention is all you need
: 甚至可以说有过之而无不及
: Transfomer架构只是发明了蒸气机
: Nested Learning这篇论文,简直就是热力学定律的等级了
: 基本上等于宣告Transformer架构过时了(因为是一种扁平和单一频率的特例)
: 未来三到五年,全面转向Nested Learning的时代
如果真的架构更改 那对辉达反而更有利吧?
这几年设计的ASIC都是基于Transformer架构
基本上要整个打掉重来 重新设计新的ASIC
那就又一次轮回循环 只能利用NV GPU挺过过渡期
等架构整个稳定 再设计适配的ASIC
每更改一次架构 就让GPU的商业可用性拉长更多时间
另外假如真的实现agi 对算力的需求会再来一次几倍的成长的
LLM的泛用性 还不够广
agi几乎什么都能做 同时也代表架构稳定需要一段时间
其实也会让NV能赚烂的时间更长
作者: madeinheaven   2025-12-13 23:36:00
不管什么芯片都要用内存
作者: junior020486 (软蛋头)   2025-12-13 23:48:00
直接不玩了,重新设计ASIC,之前那些怎么办?等于旧的ASIC跟上一代的gpu 马上没屁用欸哪来那么多钱整天重来
作者: darkangel119 (星星的眷族)   2025-12-14 00:13:00
MRVL的ASIC可以丢了AICHIP: 哭勒 又要爆肝了
作者: fitenessboyz   2025-12-14 01:12:00
MRVL真的早晚拜拜
作者: fallinlove15   2025-12-14 08:58:00
我觉得谷歌只是优化算法用在特定情况下 老黄是对一个平台的硬件下手 自由度比较高 护城河更深 谷歌证明大家能自己设计又怎样 讲得像大部分人做得到一样所以对于媒体渲染 只要知道 有这种可能 就够了 等真正有威胁的出现记得要注意 只是现在没有

Links booklink

Contact Us: admin [ a t ] ucptt.com