SEMI:AI人工智能和未来新兴运算架构
新闻来源:https://bit.ly/2XyxjRu
本文:
随着深度学习的数据运算需求,AI人工智能芯片呈现倍数成长,然而“效能”与“能耗”
却成为芯片工艺亟需解决的两项问题。为此,全球 IC 设计企业转向系统级层面的解决方
案,衍生出 GPU、FPGA及ASIC等异质运算架构。
人工智能架构从建构到应用可以分为两层,分别是后端的“训练(Training)”与前端的
“推导(Inference)”。训练是指将复杂的图形、影像或是语音数据输入到深度学习模
型,重复运算与修正以提高算法准确度,最后产出可用的类神经网络软件;后者是将已
经训练好的类神经网络软件放入终端装置,用以推导新的数据,实现生活中的人工智能应
用,例如自动驾驶、语音识别、图像辨识及影像处理等等功能。
为了洞察未来 AI 芯片的产业趋势, SEMI国际半导体产业协会日前所举办的“智慧数据
产业论坛”邀请到来自联发科(MediaTek)、英特尔(Intel)、辉达(NVIDIA)、新思
科技(Synopsys)的技术专家出席进行专题分享,从业界的角度探讨 AI 芯片产业的发展
现况。以下,精彩内容:
<<边缘运算(Edge Computing)是智慧应用的发展关键>>
倘若,执行 AI 运算的设备并不在云端服务器,而是在效能有限的终端装置,使得“边缘
运算”成为企业在发展人工智能应用中必须解决的难题。
联发科(MediaTek)的吴骅处长
认为边缘运算对于人工智能产业越来越重要,例如手机上的系统芯片、具备人脸辨识功能
的摄影机等等,AI 应用都仰赖终端设备的芯片进行运算。但边缘运算的硬件却有体积与
耗能上的严格限制,面对额外的计算需求,联发科选择在新一代的 Helio P90 芯片整合
独立的 APU (AI Processing Unit),专门处理 AI 算法的运算需求,以异质整合的
方式提升芯片效能并降低耗电量。
长远来看,他认为更多的 AI 应用都会在终端装置上完成“推导”,随着运算越趋复杂,
边缘计算芯片将面临散热与面积的挑战,由于 AI 专用芯片运算效率远高于通用芯片,使
得发展专用芯片架构成为业界的普遍共识。
<< FPGA 弹性架构适合开发 AI 推论芯片>>
FPGA (可程式化逻辑闸阵列) 是目前最受欢迎的AI 芯片设计架构之一。
英特尔(Intel)的周凯枫工程师
Intel 看好 FPGA 在 AI 应用芯片的潜力,因为FPGA架构除了有低功耗、高度设计弹性以
及低成本等优势,它的开发时程也相对短,有助于企业满足变化万千的利基市场。Intel
所开发的 OpenVINO 工具包或是eASIC 解决方案都进一步将FPGA架构的优势最大化,加速
AI芯片的开发展。
<<多GPU架构能提供强大的平行运算能力>>
相较于前端的“推论”,后端的AI 算法“训练”需要庞大的平行运算能力,单个 GPU
已经无法满足日渐复杂的深度学习模型。
辉达(NVIDIA)的康胜闵经理
从架构层面出发,比较新一代 NVSwitch 架构借由改善多颗 GPU 之间的沟通效率,将深
度学习模型的训练时间从 15 天缩短到 1.5 天。他认为改善 AI 的运算效率不只是追求
更强的芯片效能,对算法的了解与软件的堆叠也非常重要,例如针对不同的算法开发
对应的加速函式库(cuDNN),透过软硬整合才能达到更高的运算效率。
<<人工智能芯片设计的未来发展:异质整合>>
新思科技(Synopsys)的魏志中策略总监
随着运算的需求种类增加,如果要兼顾耗能及成本,单一晶圆(Die)的芯片已经无法满
足。他强调“异质整合”(Heterogeneous Integration)的概念,透过在系统级封装(
System in Package, SiP)中整合多项异质运算芯片,试图解决效能、功耗以及设计弹性
上的问题。
好比联发科在原本的 SoC 整合一个独立的 AI 加速器,另外 Intel 所提出的 eASIC,原
理也是把ASIC 透过 FPGA 的方式埋进芯片以提高设计架构上的弹性。
结语
AI 芯片的应用很广,单一架构无法满足所有的运算需求,使得“异质整合”芯片的需求
应运而生。然而,不只是单纯芯片效能改进,企业也必须进行全面思考,从上层的算法
、中层的编译器以及底层的硬件进行全面最佳化,才是未来 AI 芯片的整合趋势。