【Google I/O 2017】Google 第二代 TPU 既能推理又能训练,性能霸道
http://technews.tw/2017/05/18/google-io-2017-new-tpu/
第一代 TPU 于 2016 年发表,它被做为一种特定目的芯片而专为机器学习设计,并用在
AlphaGo 的人工智能系统上,是其预测和决策等技术的基础。随后,Google 还将这一晶
片用在了其服务的各方面,比如每一次搜寻都有用到 TPU 的计算能力,最近还用在了
Google 翻译、相簿等软件背后的机器学习模型中。
今天凌晨,Google 宣布第二代的 TPU 系统已经全面投入使用,并且已经部署在 Google
Compute Engine 平台上。它可用于图像和语音辨识、机器翻译和机器人等领域。
新的 TPU 包括了 4 个芯片,每秒可处理 180 万亿次浮点运算。Google 还找到一种方法
,使用新的电脑网络将 64 个 TPU 组合到一起,升级为所谓的TPU Pods,可提供大约
11,500 万亿次浮点运算能力。
强大的运算能力为 Google 提供了优于竞争对手的速度,和做实验的自由度。Google 表
示,公司新的大型翻译模型如果在 32 块性能最好的 GPU 上训练,需要一整天的时间,
而八分之一个 TPU Pod 就能在 6 个小时内完成同样的任务。之所以开发新芯片,部分也
是因为 Google 的机器翻译模型太大,无法如想要的那么快进行训练。
除了速度,第二代 TPU 最大的特色,是相比初代 TPU 它既可以用于训练神经网络,又可
以用于推理。初代的 TPU 只能做推理,要依靠 Google 云来即时收集资料并产生结果,
而训练过程还需要额外的资源。
机器学习的能力已经逐渐在消费级产品中体现出来,比如 Google 翻译几乎可以即时将英
语句子变成中文,AlphaGo 能以超人的熟练度玩围棋。所有这一切都要靠训练神经网络来
完成,而这又需要计算能力。所以硬件越强大,得到的结果就越快。如果将每个实验的时
间从几周缩短到几天或几个小时,就可以提高每个机器学习者快速反复运算,并进行更多
实验的能力。由于新一代 TPU 可以同时进行推理和训练,研究人员能比以前更快地部署
AI 实验。
(下略)
=====
其实就是新一代人工智能芯片组,它的上一代最为大家知道的应用大概就是AlphaGo了。
来看看这一次...
除了一代的推理能力外....
还可以训练神经网络....
再加上一个本来就一定有的联网功能...
嗯!
感觉天网快要到来了.....
说天网好像太悲观了....
也许麻幌、小唧、茶茶丸....快到来了。
什么?你说还有外型问题,关于肉体方面的问题...我相信日本人的技术。 (?)