Re: [新闻] 甲骨文股价暴跌超10%!订单积压越来越多 “烧钱”砸AI

楼主: minazukimaya (水无月真夜)   2025-12-13 03:06:12
※ 引述《LDPC (Channel Coding)》之铭言:
: @@我是不知道其他世界线 我们公司有引入各种AI Tool
: 比方说在slack 我要开一个data bucket权限 (公司机密资料 权限最高级那种)
: 来测试我新模型 然后我就slack打serval (IT机器人公司方案)
: 他就开始一步步核对 然后最后一步还跟我说有各种data access 时间限制
: 然后就帮我设定好 然后最一关签呈就是人类IT 这些步骤效率超越传统IT很多
: 随时都可以叫IT机器人帮我处理各种事情 前置作业大量弄好 只要一两个人类做最后确认
: 同样的 我在openai企业版(有专门设计给企业版) 这个整合内部公司所有文件资料
: 有一次我要设计模型 我就问这方面模型有谁设计过 结果他就拉出过去
: 三年各种历史设计报个 还有各种benchmark 因为openai企业版可以整合公司数据库
: 一下子我就能站在过去历史巨人 不需要去问哪个部门之前干过啥
: ai coding现在最大用途就是写测试工具 真他x的好用 设计模型完之后 叫ai帮我写
: script去做下游端大量测试
: 其他ai tool还有infenrece端可以直接调用prompt和观察模型反应 以及notion
: 这种线上报告也引用自家ai tool 快速搜寻资料都挺方便
: 然后我们自己设计给下游顾客的ai tool 如果顾客说他工作时间没缩短
: 那我们就拿不下订单 现在垂直整合领域已经杀到红血 每个tool 越盖越先进QQ
: 我好想躺平 已经每天工时飙到16hr....... 改天再写写去NeurIPS看到的迹象
: Hinton/Jeff Dean/Yoshua Bengio/何凯明 任何你知道大神都去这今年NeurIPS
: 结论就是大厂真的要干架了 Google DeepMind新政策 禁止发paper
: QQ 不发paper延伸意义就是 现在开始 狗家不会在开放他们自家模型设计秘密
: 目标就是要胖揍开放爱和其他竞争者...
: 目前狗家大量研究员生气中 这次还有很多菁英邀请制度线下聚会 跑去蹭了NV/META
: 看到一堆海外的博士生在现场跪求进去Meta 线下聚会.......QQ
: 据说开放爱线下聚会是最难进去的 连地点和门路在哪都不知 只能被动邀请
没关系,偷偷告诉你一个Insight
今年NeurIPS 2025有一篇超重量级的论文
Introducing Nested Learning
这篇文论的重要程度不亚于Attention is all you need
甚至可以说有过之而无不及
Transfomer架构只是发明了蒸气机
Nested Learning这篇论文,简直就是热力学定律的等级了
基本上等于宣告Transformer架构过时了(因为是一种扁平和单一频率的特例)
未来三到五年,全面转向Nested Learning的时代
以下文字是我先写一版,再请Gemini润稿的洞察
作者: tsubasawolfy (悠久の翼)   2025-12-13 06:42:00
这名字取得好…看到就大概知道他要干嘛
作者: billionerx10 (股十0)   2025-12-13 07:16:00
看来自研asic可能会是一条非常不明智的路 架构一改整个无用
作者: GinginDenSha (gingin)   2025-12-13 07:30:00
推,呆湾房子买起来,呆民财富持续喷射
作者: jimjim951357 (v54dt)   2025-12-13 07:52:00
感谢分享
作者: darkangel119 (星星的眷族)   2025-12-13 08:09:00
想到发明蓝莓机的电影 黑莓 将资料压缩让通讯塔的乘载量暴增
作者: loopdiuretic (环利尿剂)   2025-12-13 08:15:00
先推不然别人以为我看不懂
作者: beavertail97 (奏音璃)   2025-12-13 08:22:00
所以要出清NVDA的意思?
作者: dongdong0405 (聿水)   2025-12-13 08:42:00
这让我想到早在RAG开始火了之后我就跟同事说RAG这东西早晚会被取代
作者: MumiPyonPyon   2025-12-13 08:58:00
说要取代transformers的文章年年都有
作者: lasekoutkast (白ㄘ)   2025-12-13 09:31:00
重点是掌握权力的那些政治人物产业的发展跳脱不了人的管理那些掌握权力的政治人物决定AI发展的快慢泡沫的产生归根究底就是在理论尚未成熟前就一窝蜂的投入资金产业的发展还要考虑现金流
作者: NekomataOkay (u)   2025-12-13 09:52:00
感谢信心加持
作者: assassinzero (刺客教条 我的最爱)   2025-12-13 09:58:00
这篇重点:如果nested learning可行,内存的美梦就会破碎
作者: JasonTatum11 (捷森泰坦)   2025-12-13 11:56:00
就是N变log N 这不是大一就学过的东西吗
作者: bonbon789852 (Bon)   2025-12-13 12:30:00
看不懂但是感谢分享 大GG天下无敌
作者: loopdiuretic (环利尿剂)   2025-12-13 13:12:00
那台积要回房间喝酒了吗 夺门而出啥时回来?
作者: junior020486 (软蛋头)   2025-12-13 13:22:00
甲骨文丸辣
作者: NoMomoNoLife (\MOMO/\MOMO/)   2025-12-13 13:23:00
贺出桶!还马上热心分享QQ
作者: nikoyaka9527 (niko)   2025-12-13 13:34:00
推mina大,谢谢分享资讯
作者: darkangel119 (星星的眷族)   2025-12-13 17:40:00
AI回答我是SRAM IP 跟 ASIC 事核心受益者 咦?
作者: sustainer123 (caster)   2025-12-13 21:28:00
这篇不是github还没开源吗?
作者: verydolungbe (小小邦)   2025-12-15 07:23:00
我看到了 BETA 与 VHS 之争。还有人听得懂我我吗?" target="_blank" rel="noreferrer noopener nofollow">

Links booklink

Contact Us: admin [ a t ] ucptt.com