[情报] 英特尔AI芯片NNP赶2017年底前出货

楼主: zxcvxx (zxcvxx)   2017-10-20 10:55:26
[情报] 英特尔AI芯片NNP赶2017年底前出货
http://bit.ly/2zok5pJ
英特尔2017年10月17日宣布,用于支援人工智能(AI)应用的“Nervana神经网络处理器
”(Intel Nervana Neural Network Processor,NNP)芯片(以前称:Lake Crest),将
于今年(2017)底前开始出货。
由于,英特尔去年(2016)收购芯片新创公司Nervana Systems,以加速AI芯片开发。之前
,未能提供AI优化芯片,英特尔失掉了沃尔玛等重要客户,因需要能支援其内部数据中心
深度学习任务的产品,所以只能转向采用辉达(Nvidia) AI芯片。目前该市场几乎是辉
达的天下。
英特尔宣称Nervana™神经网络处理器(NNP)将重新定义AI 芯片(AI Silicon)。机器学
习和深度学习正在迅速成为最重要的计算工作负载。可从客户的数据中提取有意义的见解
,并对英特尔的芯片组合进行更改,以提供卓越的机器学习性能。英特尔分享了神经网络
处理器也是深度学习(Deep Learning)新型芯片Nervana™NNP之背后动机和设计概念。
新内存架构旨在提高硅芯片最大运算的利用度(New memory architecture designed
for maximizing utilization of silicon computation)
矩阵乘法(Matrix multiplication)和卷积(convolutions)是深度学习核心的一些重要原
语。由于,不同的需求也将影响这些运算工作负载方式,因为操作和数据移动在很大程度
上是先天知道的。因此,Intel Nervana NNP在芯片储存器上并没有标准的缓存层次结构
,而是由软件直接来管理。更好的内存内存管理使芯片能够在每个裸片上实现大量计算
的高水平利用,这意味着为深度学习模型需要更快的训练时间来达成。
实现可扩展性AI模型的新水平 (Achieve new level of scalability AI models)
采用高速芯片和对外互连设计,Intel Nervana NNP可实现大量双向数据传输。而且,设
计目标是真正实现大量可并行处理的模型,其中神经网络参数分布在多个芯片上。这使得
多个芯片就像一个大型虚拟芯片,允许客户从其数据中获取更多有价值的判断力。
高度数值并行性:Flexpoint
在单一芯片上的神经网络运算,可能受制于电力来源和记忆存储器频宽。为了实现神经网
络工作负载能有更高的吞吐量,除了上述记忆存储创新之外,英特尔还发明了一种名为
Flexpoint的新数字格式。Flexpoint允许将标量计算(scalar computations)放入为定点
乘法和加法(fixed-point multiplications and additions),同时允许在较大动态范围
内使用共享指数(shared exponent)。由于,每个电路(circuit)是较小的,将导致了芯片
的并行性(parallelism)大幅度增加,同时降低了每次计算的功率。
http://bit.ly/2zok5pJ
作者: outzumin (阿呆铭)   2017-10-21 00:44:00
看不懂拉 还不是输gg

Links booklink

Contact Us: admin [ a t ] ucptt.com