IBM开发新处理器 结合运算和内存于单一芯片
https://bit.ly/37RdFns
IBM正在开发一种处理器,期望结合运算和内存于单一芯片上,改善系统效率来克服所
谓的范纽曼瓶颈(Von Neumann bottleneck)以提高系统效率。这一解决方案预计2029年
推出,系统效率提高了1000倍。
在传统系统上,运算和内存位于不同的位置。每一次执行运作时,资讯会在运算单元和
储存单元之间来回移动。如果将两者整合在一起,效率势必提高。现今IBM研究人员已经
开发出了200 mm2 的芯片,该芯片可以在内存中处理和储存数据来克服这一瓶颈。
IBM为了达到这一目的,借由提供开发人员一组Python语音程式撰写的类比硬件加速套件
(Analog Hardware Acceleration Kit)。再透过该套件,使他们能够开始测试一种在记
忆体内的运算方法,该方法将比起任何现有处理器还能够更快地运行神经网络算法。
基本上,类比硬件加速套件的两个主要组件,一个是基于Torch库的开源机器学习库,是
PyTorch的一个实例,另一个类比设备模拟器。IBM希望在研发处理器的同时能与软件开发
商紧密合作,共同建构软件。
IBM还宣布,与Synopsys已成为IBM位于纽约州Albany市的AI硬件中心的主要合作伙伴。
Synopsys将开发用于高性能硅芯片的IP模组块,以及其他用于建构人工智能(AI)应用程
式的软件工具。
此外,IBM也将投资在纽约州Albany市的SUNY-Poly校园,新建一座无尘室设施,以推进封
装(也称为异构整合)提高内存近距离之互连能力。目的是确保在开发运算核心时,记
忆体频宽会随之增加。这些研究工作集中在细间距叠层技术上,在叠层中嵌入硅桥以实现
AI芯片之间的细间距互连。通过将内存与AI芯片堆叠在一起,实现了完整的3D整合。
总之,IBM正在开发的处理器是为了实践基于神经网络的AI应用程式(也称为深度学习演
算法),其能够通过将数据储存在内存中,以更快地反应事件,从而可以更快地处理简
单的权重运算。一旦完成,部署在边缘运算平台上的AI推理引擎将特别受益。
然而,要完全实现IBM这一研究项目,可能还需要一段时间。这也表明了,在AI应用程式
上,整个IT行业仍处在初始阶段,未来的路还很长,后续厂商势必会投入更多心力,为边
缘AI带入下一阶段。