[新闻]内存三大原厂齐聚 SEMICOM,韩厂更喊出

楼主: pl132 (pl132)   2025-09-10 19:04:01
内存三大原厂齐聚 SEMICOM,韩厂更喊出要强化台韩进一步合作
https://tinyurl.com/25jdh5wc
随着生成式 AI 的爆炸性成长,内存不再仅是辅助元件,而是人工智能智慧的起点与关
键驱动者。因此,在 2025 Semicon Taiwan 的内存论坛上,难得的全球三大内存大
厂 SK 海力士、三星和美光同台参与活动,并透过主题演讲诉说当前重新定义内存在
AI 时代中角色的必要性,以共同面对 AI 基础设施在效能、功耗和扩展性方面的严峻挑
战,并透过创新与合作,形塑 AI 的未来。
SK 海力士藉全堆叠内存引领 AI 效能与效率
SK 海力士副总裁崔俊龙强调,AI 市场正以惊人的速度发展,数十甚至数百种 AI 模型正
扩展到成千上万的下游应用中。这对 AI 基础设施提出了跨越效能、可扩展性和功耗效率
的庞大需求。内存,特别是高频宽内存 (HBM),已成为 AI 机会的核心。SK 海力
士正从单纯的内存供应商转变为提供 “全堆叠内存” 解决方案,并以此愿景引领业
界。
另外,AI 基础设施面临频宽、功耗、热密度和实体空间等关键限制。预计到2030年,数
据中心所消耗的电力将比 2023 年增加三到六倍,其中 AI 工作负载将占总电力需求的
65%。功耗已成为 AI 产业最关键的考量因素。崔俊龙指出,HBM 在单一 AI 机架中的功
耗占比正从 12% 增加到未来的 18% 或更高,而 HBM 功耗效率提升 10%,可使整个机架
的总功耗节省 10%。内存频宽更是 AI 训练和推论的瓶颈。
崔俊龙强调,为应对这些挑战,SK 海力士持续推动技术边界。其最新的 HBM 升级版本相
较于 HBM3,频宽提升超过 200%,功耗效率提升高达 40%。SK 海力士更率先开发出
HBM3E,其容量达 36GB,频宽超过 2TB/s,树立了新的行业标竿。未来,HBM 将不再仅
是内存,而是会嵌入新功能和处理能力,从被动变为主动式智慧的一部分,为每个客户
和 AI 芯片量身定制具备专用功能的内存。
最后,SK 海力士明确表示,台湾拥有独特的 “横向整合生态系统”,涵盖晶圆代工、封
装、测试到系统整合,是唯一能提供全阶段 AI 平台的区域。SK 海力士将运用其 HBM 的
领先地位,为台湾的 AI 生态系统提供所需的内存,共同建立 AI 基础设施的未来。他
们强调将与台湾 AI 的横向整合站在一起。
三星客制化解决方案与效率创新应对 AI 挑战
三星内存产品规划副总裁 Jangseok Choi 在演讲中表示,AI 模型的计算需求在过去
15 年间每年成长 4.7倍,但计算效能以及内存容量和频宽的增长速度却远不及此,导
致了严重的瓶颈。OpenAI 图像生成功能引起的 GPU 过热问题,便是 AI 基础设施不足的
写照。此外,到 2030 年,全球数据中心的电力消耗可能比去年翻倍,若 AI 采用率高于
预期,甚至可能更高。
为解决AI时代的四大挑战 (效能、基础设施、功耗和工作负载管理),三星提出了 “客
制化 HBM 解决方案”(Bespoke HBM)。他们可以根据客户的具体需求调整 HBM 的特性
和功能,无论是追求最大频宽、成本效益还是功耗效率。三星作为唯一能够提供内存、
逻辑、晶圆代工和先进封装等全面内部服务的公司,具备独特的价值主张。
在提升效率方面,Jangseok Choi 表示,三星正在开发 PIM(处理器内存) 技术,透
过将某些任务从 GPU 卸载,显著降低功耗并提升系统整体效能。例如,LPDDR6 PIM 的效
能比传统解决方案高 3.6 倍,能耗却减半。此外,针对生成式 AI 庞大的数据需求,三
星推出新的 AI 分层储存解决方案,包括效能层、储存层和容量层,并开发了针对
LPDDR 内存的 SoC-M2,以实现数据中心的扩展和效率优化。在未来,三星将推动
HBM 封装从热压缩接合转向混合铜接合,实现更高的堆叠层数、更佳的散热和更高的信
号完整性。
演讲最后,Jangseok Choi 明确表示,要感谢台湾半导体产业提供的宝贵支持,这对三星
实现其目前的领先地位至关重要。面对日益复杂的产业挑战,三星强调与台湾产业的持续
合作对于开创创新解决方案和推动技术进步是不可或缺的。他们希望与台湾共同建设更好
的未来。
美光内存创新与 3D DRAM 的突破
美光副总裁 Nirmal Ramamurthy 指出,AI 正在带来巨大的经济价值和产业变革,但AI模
型的复杂度不断提升,需要惊人的内存容量,预计不久的将来参数将达到数万亿。目前
,计算效能的成长速度(每两年 1.6 倍)快于内存性能,导致两者之间的差距不断扩
大,这要求内存必须以更快更好的速度扩展。能源效率是 AI 可持续发展的另一个关键
限制,预计到 2030 年,数据中心将占美国能源需求的 10%,其中大部分来自 AI。
Nirmal Ramamurthy强调,新的 AI 工作负载促使服务器架构演变,专用计算刀锋服务器
中的 GPU 与 HBM 紧密耦合,而 LPDDR 等内存也透过高性能互连与 CPU 相连。美光强
调,AI 的成功仰赖于一个全面的内存阶层,包括高频宽内存 (HBM)、平衡主记忆
体(如 LPDDR、DDR 等)以及可扩展的大容量内存和 AI 优化储存。美光提供了广泛的
内存产品组合,以满足 AI 计算系统的多元化需求。
Nirmal Ramamurthy进一步指出,内存技术的发展必须优化效能、容量和功耗,以应对
从数据中心到边缘 AI 设备的各种需求。HBM 的成功有赖于颠覆性的制程、设计创新和先
进封装架构。DRAM 核心面临着微缩至原子级限制、电容长宽比增加以及传感裕度缩小等
技术挑战。
为克服这些限制,美光预期未来 DRAM 将走向类似于 3D NAND 的 “3D DRAM” 结构,透
过垂直堆叠来增加单元体积。这项技术需要高性能 CMOS、复杂的晶圆接合以及创新的制
程设备。此外,美光也在探索 1T-1C 铁电内存等新兴内存,因其接近 DRAM 的性能
和成本效益,有望在扩展内存中发挥作用。美光也积极利用 AI 和建模来加速自身的技
术开发流程。
之前韩国把台湾弄得很惨,也把台湾当作竞争对手,现在回头喊台韩友好
事情应该不单纯,该不会学日本,也准备偷台积技术?

Links booklink

Contact Us: admin [ a t ] ucptt.com