[情报] 英特尔Chipzilla未来计划:AI ASIC芯片将

楼主: show31729 (Joker)   2018-05-29 17:22:07
英特尔Chipzilla未来计划:AI ASIC芯片将于2019年出货
http://bit.ly/2sm2sVQ
英特尔(Intel)公布Chipzilla的未来计划。英特尔2018年5月23日在旧金山召开AI开发者
大会(AIDevCon) 发布了一系列机器学习软件工具,并暗示新芯片,其中包括其首款商用
AI ASIC NNP-L1000,将于2019年推出。
该大会由英特尔人工智能主管Naveen Rao启动了Chipzilla的第一个AI开发者大会。2016
年英特尔收购的深度学习初创公司Nervana及团队,Rao是Nervana的首席执行官和共同创
始人。
Rao认为,AI被过度炒作了且排挤了目前所有可用的数据和运算。实际上,AI革命就是一
场计算革命。每个人都可以加入AI,而显然需要的就是一堆CPU整合再一起。
英特尔的目标是AI所需的工具而不是切开CPU。相反地,解决方案将来自深度学习和更经
典的计算方法(如:随机森林或回归分析)的混合。而这一切都可以借由软件和硬件的结
合来顺利完成。下面是AIDevCon讨论的一些问题。
软件方面:
MKL-DNN:代表深度神经网络的数学内核库。它是神经网络中常见组件的数学程序列表,
包括矩阵乘法器、批量范数、归一化和卷积。该库的目的是针对英特尔CPU上部署模型进
行优化。
nGraph:提供开发人员选择不同的AI框架,它们都有各自的优点和缺点。为使芯片变得灵
活,后端编译器必须能够有效地适应所有这些芯片。nGraph是一款在英特尔芯片上实现这
一功能的编译器。开发人员可能希望在英特尔的至强处理器上训练他们的模型,但随后使
用英特尔的神经网络处理器(NNP)进行推理。
BigDL类似Apache Spark,旨在使用分布式学习在深度学习中处理更大的工作负载。应用
程序可以用Scala或Python编写,并在Spark集群上执行。
OpenVINO是一款软件工具包,用于部署处理“边缘”视频的模型,如于相机或移动电话等
物联网装置。开发人员可以即时进行面部辨识的图像分类等功能。预计今年(2018)底前开
放下载。
硬件部分:
Rao强调,以前Xeons不适合AI,但现在真的改变了。认为,GPU比CPU快100倍是错误的。
Rao解释GPU在深度学习方面有一个很好的开端,但受限于严重的内存限制。Xeon拥有更多
的内存,可以大量扩展到市场。
他谈到了FPGA的加速问题,并表示英特尔正在研究一种“离散加速器进行推理”
(discrete accelerator for inference),但未分享任何细节。
同时,还有英特尔Movidius神经计算棒(Movidius Neural Compute Stick),是一个USB棒
,可以运行使用TensorFlow和Caffe编写的模型,耗电量约为1瓦。
神经网络处理器(Neural Network Processor )是ASIC芯片也于去年(2017)发布,包含12
个基于其Lake Crest架构的内核,内存有32GB,在未公开的精度下性能达到40 TFLOPS,
对于低延迟互连,理论带宽小于800纳秒,每秒2.4 TB的高带宽。NNP L1000将是第一个商
用NNP模型,并将于2019年推出。它将基于新的Spring Crest架构,预计比以前的Lake
Crest模型快3~4倍。
作者: Kulo (人面桃花)   2018-05-29 18:33:00
GPU的内存就是个笑话
作者: DynaxYoung (戴涅克斯)   2018-05-29 19:24:00
不太懂这个领域…请问楼上怎么会这么说?
作者: TWL731 (苏格拉底之梦)   2018-05-29 22:08:00
内存限制?没翻错吗......
作者: jun0325 (俊)   2018-05-30 08:28:00
GPU一个SM上可以支援上万个thred同时跑,但cache确没办法同时scale up每个thread分到的空间就少很多

Links booklink

Contact Us: admin [ a t ] ucptt.com