[情报] Intel 推出 NNP-I 神经网络处理器

楼主: WARgame723 (钒合金大湿)   2019-06-29 00:08:41
Intel 推出 NNP-I 神经网络处理器, Ice Lake 加上 Nervana 推理引擎
https://www.coolaler.com/threads/intel-nnp-i-ice-lake-nervana.355930/
Intel 在位于以色列海法的研发中心推出了一款针对推理运算的 Nervana 神经网络处理
器,简称 NNP-I。这款处理器与常见的神经网络处理器不同的是,它将此前发布的 Ice
Lake 处理器与 Nervana 神经网络处理器结合,组成这款 NNP-I 处理器,但这款处理器
与 Ice Lake 处理器有很大的不同,使用 Ice Lake 基础设计并做出了修改,将其中的
Gen 11 内显及显示模块去掉,将其替换成针对推理运算的 AI 加速器。同时 Intel 还
在这款处理器上添加了 DSP 引擎,用于未针对固定功能加速器优化的算法,为其他类型
的 AI 运算提供相容性。
而 CPU 部分依旧采用多个 Intel Sunny Cove 架构的 x86 核心,但并不知道其核心数目
。Intel 产品工程总经理Oren Gershon模糊地称他们移除了一些其他的核心为 AI 加速器
腾出额外的位置,所以这款处理器可能采用了两个处理器内核。
Intel 提供了包括 m.2 等几种形式的加速卡样式,因此它可以安装在服务器主板的标准
m.2 接口或 PCIe 扩充卡上。与一些专为 AI 设计的定制芯片不同,这款产品几乎兼容
所有的现代服务器,甚至可以根据需要为服务器添加多个 NNP-I 模块。
Intel 也在软件方面进行了优化,在使用 NNP-I 加速器时,服务器可将全部神经网络推
理运算转移到 NNP-I 处理器中,并在任务完成时通知服务器中的 Xeon 主处理器。而且
由于 NNP-I 处理器拥有完整的I/O模块(拥有 PCH),所以其可以访问处理所需的数据,
而且 Intel 称这并不会受到 PCIe x4 带宽的影响。
由于内部有全新的 Sunny Cove 架构的 x86 内核,所以 NNP-I 也有 AVX512 指令集,支
援 VNNI 深度学习指令,所以它技术适用于任何类型的 AI 负载,Intel 也提供了编译器
,为 NNP-I 加速器提供定制代码。如 PyTorch 及 TensorFlow 等机器学习框架,NNP-I
加速器可以几乎无改动的运行支援这些框架的代码。
Intel Ice Lake 处理器的 TDP 为28W,而 m.2 接口有15W的功耗限制,但由于其可以插
在 PCIe 扩充卡上,所以 NNP-I 加速器可以运行在更高的功耗下,以提供更好的性能。
而具体性能方面 Intel 并没有透露,但 Intel 已经向早期客户提供样品,并在今年晚些
时候大批量生产。
当某厂在吹嘘IPC进步跟功耗时,i皇已经在认真搞神经网络了了,未来神经网络智能AI才是重头戏
还有最强指令集 AVX512 光这条A厂又输惨惨,10nm这代只要全面支援又把A甩在后头
谢谢intel推动世界进步
作者: c52chungyuny (PiPiDa)   2019-06-29 00:21:00
在CUDA胯下,在场各位都是........CUDA install fatal error, purge, clean, install

Links booklink

Contact Us: admin [ a t ] ucptt.com