[情报] DRAM现在与未来

楼主: zxcvxx (zxcvxx)   2017-12-04 17:20:07
[情报] DRAM现在与未来
http://bit.ly/2ig6t9H
目前,市面上DRAM常见的主流可分为三种。首先是适用在PC、Server与显示卡上的GDDR。
多数的桌上型或是多数笔记型电脑都是使用DDR系列,目前使用世代为DDR4,而另一个使
用DDR4内存的产品就是近来最红的资料中心(Data Center),电商与社群网站、甚至未
来人工智能(AI)的风行,所使用的服务器的内存也是用DDR4。目前服务器上的DDR从早
期使用同位元检察(Parity Check)到现在使用更强大错误更正码(Error Control
Coding/ECC)在内存模组上。
DRAM另外一个主要潮流就是使用在行动装置(如智慧型手机与平板电脑)的Low Power DRAM
,也使用在穿戴式装置上,如智慧手表等。目前常见的种类为LPDDR3 或LPDDR4,根据产
品定位不同而分。比较例外的笔记型电脑如Mac Book Air(MBA)也使用Low Power系列,
LPDDR为因应行动世代的来临而从DDR产品线延伸出来,主要目的为节省能源,故朝着降低
电压方向制订,其也与DDR系列终端应用环境的不同,取消延迟锁向回路(Delay Loop
Lock/DLL)以及增加封装方式(Package on Package/PoP)等方式。另外一个在行动装置的
DRAM技术为Wide IO,只是目前开发的厂商不多。
最后一个与DDR与LPDDR不同的是图形DDR(Graphic DDR/GDDR)系列产品,其只使用在与图
形处理器(Graphic Processing Unit/GPU)相关的使用环境上。图形加速从早期二维到三
维,最主要使用图形处理效能的应用为电竞游戏。更高的分辨率、更多的帧率(Frame
Rate)与更高色彩深度(Color Depth)都需要更强的图形处理能力以及更高的图形内存的
频宽。目前应用在GPU的GDDR系列为GDDR5X。 GDDR系列为了增加频宽,GDDR开发的发想环
境为在印刷电路板(PCB)上周边装置,故对于资料传输的输出入(I/O)的发展方式当然与上
述的DDR与LPDDR不同。
除上述目前常见的DRAM种类以外,另外两个比较少见主要为了未来应用环境的而发展的记
忆体还有Hybrid Memory Cube(HMC)与Hugh Bandwidth Memory(HBM):
HBM原先主要提倡者为Hynix,但其把标准已经公开至JEDEC成为标准。
HMC主要提倡者为美光,目前仍为其专属的技术,并未成为公开标准。
以上两者在架构上的共通点都使用底层的逻辑芯片做为与DRAM控制器的连结,并使用硅穿
孔(Through Silicon Via/TSV)技术连结DRAM Die,两者也同时运用ECC等新一代技术,也
因为如此纳入目前最新的半导体技术,导致这两种DRAM成本高居不下,目前仍少见于主流
市场。
HMC主要应用于目的服务器,故其将与DDR5竞争,因为服务器环境需要大容量且快速可靠
特性,HMC底下的逻辑芯片运作以主要交换(Switch)方式运作,运做类似有线以太
(Ethernet)局域网路-交换器(Switch)与网络终端(NIC)等,透过此等方式可以降低使用越
来越多内存模组的复杂性,能够增加服务器的最大内存容量,HMC本身除了以模组方
式存在也可以以单位芯片个别存在。
而另一个HBM目前已经发展到HBM2第二代,在消费端已经可以接触其量产实品。AMD推出的
Radeon RX VEGA64显示卡即舍弃传统GDDR系列而采用HBM2做为其图形存放的内存。HBM
发展的原意就是为了满足传统DRAM throughput不足的窘境,透过Interposer与DRAM 控制
器连封装在同一个Die上面,再透过TSV与8通道的DRAM 相连,其相连的IO数可以达到传统
PCB很难达成的1024,充分达到高Throughput的目的。
DRAM的未来分合,如何?
DRAM除了目前现有的DDR、LPDDR、WIO、GDDR外还包括前所述的HBM与HMC,种类可说非常
多种。一直以来国际内存业界都有一个疑问是否未来会有一个统一的内存标准? 因
为上述其实很多DRAM其实或多或少都参考了其他种类内存的技术,至少电压方面,目前
桌上型DDR4所使用的电压1.2v 甚至比当年的LPDDR 1.8v还要低,所以到底有没有可能未
来会统一? 或者如现在一样根据新的应用产生了更多种不同的DRAM来对应新型的应用?
AI将使用何种内存呢?
AI目前全球科技业最红的议题,也是最让人期待的未来应用,而关于AI的算法甚至硬件
架构都有许多公司提出自己的看法,就如目前DRAM技术分歧相同,包括CPU、GPU、FPGA以
及ASIC架构纷纷提出来对应相关AI架构,而上述的DRAM也纷纷对应到AI芯片当中,目前应
用主流在Server的AI芯片对DRAM最大需要是吞吐量(Throughput),Google在2015年提出的
TPU使用DDR3芯片,但最新Nvidia(2017年)所提出的内存P40就采用HBM2内存。未来至
少在Server端所使用的训练与推论的AI芯片,估计依成本而分会以HBM与GDDR为主流。
http://bit.ly/2ig6t9H
作者: sc1 (sc1)   2017-12-04 17:56:00
Googleㄉ
作者: khhuang1 (随便)   2017-12-04 18:25:00
情报???
作者: pf775 (pf775)   2017-12-04 18:58:00
台湾的世界级半导体科技大厂呢
作者: eatingshit (别怀疑我叫宜霆谢)   2017-12-04 19:21:00
贵死了 炒作就是这样
作者: ghost008 (0080)   2017-12-04 19:28:00
洗文
作者: paul40807 (ㄏㄏ弟)   2017-12-04 19:52:00
?????????
作者: peter0612   2017-12-04 19:54:00
情报在哪
作者: zzzz8931 (肥宅)   2017-12-04 21:02:00
...
作者: sjyang (ooo)   2017-12-04 21:19:00
学习po文?
作者: lponnn (快乐的狼)   2017-12-04 22:57:00
?
作者: ayianayian (123)   2017-12-05 08:41:00
未来就是中国参一咖,然后价格崩盘
作者: Unstable (就是爱吃阿~~)   2017-12-05 08:45:00
没提到 EMIB. 下一位!

Links booklink

Contact Us: admin [ a t ] ucptt.com