[新闻] SEMI:AI人工智能和未来新兴运算架构

楼主: zxcvxx (zxcvxx)   2019-07-08 09:00:07
SEMI:AI人工智能和未来新兴运算架构
新闻来源:https://bit.ly/2XyxjRu
本文:
随着深度学习的数据运算需求,AI人工智能芯片呈现倍数成长,然而“效能”与“能耗”
却成为芯片工艺亟需解决的两项问题。为此,全球 IC 设计企业转向系统级层面的解决方
案,衍生出 GPU、FPGA及ASIC等异质运算架构。
人工智能架构从建构到应用可以分为两层,分别是后端的“训练(Training)”与前端的
“推导(Inference)”。训练是指将复杂的图形、影像或是语音数据输入到深度学习模
型,重复运算与修正以提高算法准确度,最后产出可用的类神经网络软件;后者是将已
经训练好的类神经网络软件放入终端装置,用以推导新的数据,实现生活中的人工智能应
用,例如自动驾驶、语音识别、图像辨识及影像处理等等功能。
为了洞察未来 AI 芯片的产业趋势, SEMI国际半导体产业协会日前所举办的“智慧数据
产业论坛”邀请到来自联发科(MediaTek)、英特尔(Intel)、辉达(NVIDIA)、新思
科技(Synopsys)的技术专家出席进行专题分享,从业界的角度探讨 AI 芯片产业的发展
现况。以下,精彩内容:
<<边缘运算(Edge Computing)是智慧应用的发展关键>>
倘若,执行 AI 运算的设备并不在云端服务器,而是在效能有限的终端装置,使得“边缘
运算”成为企业在发展人工智能应用中必须解决的难题。
联发科(MediaTek)的吴骅处长
认为边缘运算对于人工智能产业越来越重要,例如手机上的系统芯片、具备人脸辨识功能
的摄影机等等,AI 应用都仰赖终端设备的芯片进行运算。但边缘运算的硬件却有体积与
耗能上的严格限制,面对额外的计算需求,联发科选择在新一代的 Helio P90 芯片整合
独立的 APU (AI Processing Unit),专门处理 AI 算法的运算需求,以异质整合的
方式提升芯片效能并降低耗电量。
长远来看,他认为更多的 AI 应用都会在终端装置上完成“推导”,随着运算越趋复杂,
边缘计算芯片将面临散热与面积的挑战,由于 AI 专用芯片运算效率远高于通用芯片,使
得发展专用芯片架构成为业界的普遍共识。
<< FPGA 弹性架构适合开发 AI 推论芯片>>
FPGA (可程式化逻辑闸阵列) 是目前最受欢迎的AI 芯片设计架构之一。
英特尔(Intel)的周凯枫工程师
Intel 看好 FPGA 在 AI 应用芯片的潜力,因为FPGA架构除了有低功耗、高度设计弹性以
及低成本等优势,它的开发时程也相对短,有助于企业满足变化万千的利基市场。Intel
所开发的 OpenVINO 工具包或是eASIC 解决方案都进一步将FPGA架构的优势最大化,加速
AI芯片的开发展。
<<多GPU架构能提供强大的平行运算能力>>
相较于前端的“推论”,后端的AI 算法“训练”需要庞大的平行运算能力,单个 GPU
已经无法满足日渐复杂的深度学习模型。
辉达(NVIDIA)的康胜闵经理
从架构层面出发,比较新一代 NVSwitch 架构借由改善多颗 GPU 之间的沟通效率,将深
度学习模型的训练时间从 15 天缩短到 1.5 天。他认为改善 AI 的运算效率不只是追求
更强的芯片效能,对算法的了解与软件的堆叠也非常重要,例如针对不同的算法开发
对应的加速函式库(cuDNN),透过软硬整合才能达到更高的运算效率。
<<人工智能芯片设计的未来发展:异质整合>>
新思科技(Synopsys)的魏志中策略总监
随着运算的需求种类增加,如果要兼顾耗能及成本,单一晶圆(Die)的芯片已经无法满
足。他强调“异质整合”(Heterogeneous Integration)的概念,透过在系统级封装(
System in Package, SiP)中整合多项异质运算芯片,试图解决效能、功耗以及设计弹性
上的问题。
好比联发科在原本的 SoC 整合一个独立的 AI 加速器,另外 Intel 所提出的 eASIC,原
理也是把ASIC 透过 FPGA 的方式埋进芯片以提高设计架构上的弹性。
结语
AI 芯片的应用很广,单一架构无法满足所有的运算需求,使得“异质整合”芯片的需求
应运而生。然而,不只是单纯芯片效能改进,企业也必须进行全面思考,从上层的算法
、中层的编译器以及底层的硬件进行全面最佳化,才是未来 AI 芯片的整合趋势。

Links booklink

Contact Us: admin [ a t ] ucptt.com