[情报] AI运算更快速!Intel、Facebook携手打造

楼主: triposkyblue (天天天蓝)   2017-10-19 16:51:49
高敬原 2017.10.18
积极推展人工智能的Intel ,宣布与Facebook合作推出首款神经网络处理系列芯片,预计
可以为许多产业带来高效率的 AI 运算能力,预计在今年年底出货,挑战竞争对手
NVIDIA。
Intel 宣布要与Facebook合作,推出首款专为机器学习设计的“Nervana”神经网络处理
(NNP)系列芯片,是一款专为人工智能所设计的快速芯片,提供高效率的AI运算,预计
在今年年底就能出货。
为更多产业带来高效率的 AI 运算能力
“我们很兴奋在向市场分享这款新世代AI硬件时,能跟 Facebook 密切合作,共同分享技
术见解。”Intel 执行长布莱恩‧科再奇(Brian Krzanich)在《华尔街日报》举办的
WSJDLive 全球科技会议上,宣布与 Facebook 合作推出首款神经网络处理系列芯片,且
将在今年年底前出货,并表示 Intel 有信心能够超越去年设定的目标,在2020 年时让
AI 效能提高100 倍。
科再奇认为透过“Nervana”神经网络处理器,可以为许多产业带来高效率的 AI 运算能
力,他也列举了四项例子,像是在医疗保健 AI 可以让早期诊断提高精准度、增进癌症、
帕金森病研究;社群媒体可以为客户提供更个人化的服务;无人车未来能在汽车产业更快
实现;AI 也能帮助研究人员掌握风速、水温数据,可以有效预测飓风轨迹。
[Nervana-neural-network-processor]
Intel 缩小了Nervana 神经网络芯片的电路尺寸来减少运算时的耗能,将可以处理更大量
的数据。
Intel
加快深度学习,Facebook:改变对 AI 软硬件建构的策略
去年八月,Intel 以3.5亿美元收购深度学习新创业者 Nervana Systems,这次打造的首
款基于神经网络处理的 AI 芯片,采用标准缓存层次结构,并使用软件来管理芯片上的内
存,如此一来便能加快深度学习模型训练时间。
跟PC芯片不同,Nervana 神经网络处理芯片是一款特殊的积体电路,是为训练和执行深度
学习算法所打造,Intel 缩小了Nervana 神经网络芯片的电路尺寸来减少运算时的耗能
,将使用可处理大量数据的“Flexpoint”格式达到“大规模双向数据传输”,意思是如
果将大量的芯片连接在一起,就可成为一个巨大的虚拟芯片,能达到更大规模的深度学习
模型,此架构目标,是要打造出能弹性应付深度学习的处理器,当处理高强度运算要求时
,可以更有效率。
科再奇在 WSJ D.Live 科技会议上透露,Facebook 在试用过 Nervana 神经网络处理芯片
后,认为这可以改变公司对 AI 软硬件建构的策略。
挑战 NVIDIA,Intel 曾推出自我学习型芯片Loihi
NVIDIA 过去一直在 AI 硬件发展遥遥领先,目前多数 AI 系统都以 CPU (中央处理器)运
作处理为基础,但在 NVIDIA 的推动下,许多深度学习应用都将 GPU(图形处理器) 列为
主要加速应用的基础,CPU 只用来作为指令运作或系统控制等需求使用。
为了因应产业以GPU为AI系统发展的趋势,今年九月 Intel 推出一款具备自我学习能力的
处理器芯片“Loihi”,这款芯片采用14奈米制程技术,由13万组类神经元及超过1.3亿组
类神经网络系统组成,每组类神经元具备学习引擎,能够彼此沟通,模拟人类的大脑运作
,达到自我学习的效果,不用再额外提供学习数据,只需持续运作就能应付各种不同的运
算模式。
[Loihi]
今年九月 Intel 推出一款具备自我学习能力的处理器芯片“Loihi”。
Intel
Loihi 芯片预计在2018 年上半年与部分大学与研究机构合作,来推动未来 AI 发展。
资料来源:
https://www.bnext.com.tw/article/46584/intel-pioneers-new-technologies-advance-artificial-intelligence

Links booklink

Contact Us: admin [ a t ] ucptt.com