[情报] 硬件的未来在于AI、AI的未来在材料

楼主: show31729 (Joker)   2018-03-09 16:48:52
[情报] 硬件的未来在于AI、AI的未来在材料
http://bit.ly/2Ga5cfA
由于,人工智能(AI)担负工作与目前大多数电脑的运算工作有些不同。然而,AI隐含着分
析预测、推理、直观的能力与功能。即时是最有创意的机器学习算法也受到现有机器硬
体能力的束缚。因此,若要在AI方面取得长足进步,我们必须在硬件上进行改变,或是半
导体材料上进行突破。演变从GPU开始,引入模拟设备(analog devices),然后演变成为
具容错性量子电脑(fault tolerant quantum computers)。
现在从大规模分布式深度学习算法应用于图形处理器(GPU)开始将高速移动的数据,达
到最终理解图像和声音。DDL算法对视频和音频数据进行训练,GPU越多表示学习速度越
快。目前,IBM创下纪录:随着更多GPU加入能提升达到95%效率,就能识别750万个图像
达到33.8%,使用256个GPU 于64个Minsky电源系统上。
自2009年以来,随着GPU模型训练从视频游戏图形加速器转向深度学习,使分布式深度学
习每年以约2.5倍的速度发展。所以IBM曾于2017年IEEE国际电子设备会议(2017 IEEE
International Electron Devices Meeting)针对应用材料发表Semiconductor
Futurescapes: New Technologies, New Solutions,谈到需要开发哪些技术才能延续这
种进步速度并超越GPU?
如何超越GPU
IBM研究公司认为,GPU的转变分为三个阶段进行:
首先将在短期内利用GPU和传统的CMOS构建新的加速器以继续进行;
其次将寻找利用低精密度和模拟设备(analog devices)来进一步降低功率和提高性能的方
法;
然后进入量子计算时代,它可是一个机会,能提供全新的方法。
在CMOS上的加速器还有很多工作要做,因为机器学习模型可以容忍不精确的计算。正因为
“学习”模型可以借由错误学习而发挥作用,然而,在银行交易是无法容忍有一些许的错
误。预估,精准运算快速的趋势,到2022年每年以2.5倍在提高。所以,我们还有五年时
间来突破模拟设备(analog devices),将数据移入和移出内存以降低深度学习网络的训
练时间。因此,analog devices寻找可以结合内存和运算,对于类神经演算的进展将是
非常重要的。
类神经演算如同模拟脑细胞。神经元(neurons) 结构相互连接以低功率讯号突破
von-Neumann的来回瓶颈(von-Neumann’s back-and-forth bottleneck),使这些讯号直
接在神经元之间传递,以实现更高效的计算。美国空军研究实验室正在测试IBM
TrueNorth神经突触系统的64芯片阵列,专为深度神经网络推理和挖掘信息而设计。该系
统使用标准CMOS,但仅消耗10瓦的能量来驱动其6400万个神经元和160亿个突触。
但相变化内存(phase change memory)是下一代内存材料,可能是针对深度学习网络
优化的首款模拟器件。
进入量子时代 (quantum)
据IBM公司的研究论文,在Nature Quantum Information中展示了机器学习中量子的优势
证明(“Demonstration of quantum advantage in machine learning”),展示了只有五
个超导量子位处理器,量子运算能够稳定减少达100倍运算步骤,并且比非量子运算更能
容忍干扰的信息。
IBM Q的商业系统现在有20个量子位,并且原型50个量子位设备正在运行。它的平均时间
为90μs,也是以前系统的两倍。但是容错系统在今天的机器上显示出明显的量子优势。
同时,试验新材料(如铜相通的替代品)是关键 - IBM及其合作伙伴在IEDM上推出的其他
关键芯片改进,以推进所有运算平台,从von Neumann到类神经及量子。
解决处理器到储存器的连接和频宽瓶颈,将为AI带来新的储存器架构,最终可能导致逻辑
和储存器制造过程技术之间的融合。IBM的TrueNorth推理芯片就是这种新架构的一个例子
,其中每个神经元都可以存取自己的本地储存器,并且不需要离线存取储存器。
借由训练和推理形式的AI运算,必须推向边缘装置上(edge devices),例如:手机、智能
手表等)。因此,这将兴起由计算设备组成的网络系统。大多数这样的边缘装置会受到功
率和成本的限制,所以他们的计算需求可能只能透过高度优化的ASIC来满足。现在,传统
无晶圆厂半导体公司是否有能力提供这类型的ASIC或是否由AI芯片新创公司例如云端服务
提供商,由谁主导目前还为时过早。
备注:*冯诺伊曼架构(von Neumann bottleneck):是一种将程式指令内存和资料记忆
体合并在一起的电脑设计概念架构,因此也隐约指出将储存装置与中央处理器分开的概念
。在CPU与内存之间的流量(资料传输率)与内存的容量相比起来相当小,在现代电脑
中,流量与CPU的工作效率相比之下非常小。当CPU需要在巨大的资料上执行一些简单指令
时,资料流量就成了整体效率非常严重的限制,CPU将会在资料输入或输出内存时闲置
。由于CPU速度远大于内存读写速率,因此瓶颈问题越来越严重。[注参考资料:冯诺伊
曼架构。电子时报,2015 26。]
http://bit.ly/2Ga5cfA
作者: ghmsxtwo (YI)   2018-03-09 16:57:00
材料的未来在回收
作者: TigerDick (台科屌)   2018-03-09 17:00:00
回收的未来在竹科
作者: qazsedcft402 (hijackjackhi)   2018-03-09 17:04:00
竹科的未来在于下一站 台湾第一女总统蔡英文
作者: m4vu0 (m4vu0)   2018-03-09 17:04:00
早说不要读什么电机资工 去读物理材料光电才是未来量子时代30年后即将来临
作者: qazsedcft402 (hijackjackhi)   2018-03-09 17:05:00
真的吗好期待喔
作者: udtsean (I am back)   2018-03-09 17:10:00
竹科的未来在硬件硬件的未来在AIAI的未来在材料材料的未来在回收回收的未来在竹科疑?怎么写不完?
作者: bbbcccddd2 (没人要的)   2018-03-09 17:25:00
这篇文章是英文股沟直接翻译的吧,中文理解不能
作者: unobtainium (嘎逼)   2018-03-09 17:39:00
台湾都把研发当垃圾 玩的不起AI
作者: ABCcomputer (十万伏特)   2018-03-09 18:04:00
干你娘,这好像作文
作者: sendtony6 (TY)   2018-03-09 18:29:00
竹科的未来在回收
作者: gj942l41l4 (米食主義者)   2018-03-09 19:14:00
材料的未来在生科 楼下还不快去重考生科
作者: book7 (...)   2018-03-09 19:34:00
好吃的寿司在争鲜
作者: ap954212 (death is like the wings)   2018-03-09 20:26:00
楼上跟我想的一样
作者: VBT (批踢踢是个神奇的地方)   2018-03-11 04:09:00
已笑,材料?硬件就是不值钱,台湾自己把自己做烂,怪谁?

Links booklink

Contact Us: admin [ a t ] ucptt.com