边缘AI驱动内存产业新商机
http://bit.ly/2jVPg9S
随着AI的发展模式,从云端与数据中心的深度学习模式,逐渐走入边缘运算的装置上AI模式,内存的需求也将开始出现变化。
简单来说,目前AI应用程式一直局限于云端数据中心,可是这种对大型能源耗损和空间要求很高的模式,逐渐被发现不全然适用于行动装置与物联网时代。因此,对高扩展性,低延迟和低成本的AI模型需求不断出现,使得厂商努力往边缘运算的AI模式上发展。例如:行动与物联网装置都受到功率和性能上的严格限制,因此往快速扩张的硬件生态系统,并支持边缘应用程式进行推理任务,甚至是支持分布式训练,将成为未来的重点工作。
随着,摩尔定律和缩放定律(Dennard Scaling)渐走向终点,半导体产业需要向多样化且新的内存技术发展,以解决往AI前进时,所带来的典范移转并满足对廉价且高效的AI硬件的需求。
AI领域是内存创新的沃土,具有独特和改进的特征,并在数据中心和边缘运算中提供机会。新的内存技术必须允许边缘装置通过增加内存密度和改进数据访问模式在装置上执行深度学习任务,降低向云端和从云端传输数据的需要。简单来说,能够达到在装置上执行高精度和高效能的感知任务,是进一步推动AI前进的关键。
也因为这一趋势,取代传统内存的重大投资正在展开,包括:NAND快闪存储器,3D XPoint(英特尔Optane),相变化内存(PCM),电阻内存(ReRAM),磁阻式随机存取内存(MRAM)以及能够提供高能源效率,高耐力与非挥发性的内存正成为边缘AI时代来临最重要的课题。
更重要的是,这些内存除了适用于边缘AI应用之外,也能够在云端环境下更有效地执行深度学习模型训练和推理。其他好处包括潜在改变可靠性和处理速度。总体来说,内存技术的进步,将使得受硬件限制的AI变成可能。
整体看起来,除了持续研发AI芯片与软件之外,内存也变成关键性AI发展的要角。到底未来的内存主流技术是如何,可能需要再等几年才会揭晓!