×
半导体制造 > 半导体生产 > 详情

Google TPU机器学习运算效能优于CPU、GPU 惟需搭配专用平台

发布时间:2020-05-26 发布时间:
|

据eeworld网调查:过去几年来,市场上对深度学习(deep learning)运算需求不断攀升,Google在2011年就意识到,若全球的使用者每人每天使用Google语音搜寻服务3分钟,Google的资料中心数量得要是当时的2倍才够应付,为了解决此问题,Google从平台到芯片都下了功夫,富比士(Forbes)就报导了Google打造TPU的缘起,并分析了TPU的优缺点。

综观市场主流的中央处理器(CPU)及绘图处理器(GPU)可说各有优劣,一般来说,CPU是针对处理通用任务所设计,优点是能为单一任务提供高速的回应,缺点是一次无法处理太多任务。

另一方面,GPU则是为因应大量平行运算的绘图应用程式所设计,能同时处理许多任务,但在单一任务的处理效能及所能处理的任务种类上则比不上CPU,不过对于需要同时执行数百万运算任务的深度学习网路而言,GPU似乎更合适。

Google虽已采用了NVIDIA为机器学习所设计的GPU,却仍觉不足,另外,GPU能耗虽不高,但对于拥有数百万台服务器、且必须日夜不间断执行运算的Google而言,累积起来的能耗还是会成为大问题,在各种因素影响下,Google决定干脆自己解决,因而在2016年5月发表了自家为机器学习所开发的客制芯片Tensor Processing Unit(TPU),不过当时并未提供太多细节。

近日Google才又在一份报告中揭露了更深入的资讯,该报告将2015年开始于Google资料中心运行的第一代TPU,与英特尔(Intel)Haswell CPU及NVIDIA K80 GPU就速度及效率进行了比较。

由于此款TPU是专门为运行深度学习网路中的推论(inference)而设计,故测试也是以此为基础进行,在Google的测试中,TPU执行机器学习的速度比CPU、GPU快上15~30倍,每瓦效能比更是CPU、GPU的30~80倍,表现相当亮眼。

不过值得注意的是,Google用于测试的芯片是2015年初的产品,这段时间里英特尔与NIVIDA的产品也进步不少,若以今日的产品进行测试,想必会是不同的结果,只是当时TPU的表现太优异,英特尔与NIVIDA应该无法这么快就追上。

从本质上来比较,CPU灵活度较高,可执行较多元化的任务,包括可使用各种函式库来进行深度学习网路中的学习和推论;GPU虽不如CPU有弹性,但却有较佳的深度学习运算能力,可同时执行学习和推论,且也不限于使用单一函式库。至于TPU则是完全没弹性,必须结合TensorFlow才能以最优异的表现进行推论任务。

实务上,在一般工作环境里想执行更有弹性的深度学习任务时,采用GPU是相当合适的选择,像Google这类客制ASIC芯片就比较受限,需有相对应平台做搭配才能发挥所长。Google显然就是打算要同时推动TensorFlow与TPU的发展,使两者相辅相成,目前虽不知Google对TPU的市场规划为何,不过第三方用户还是能先从Google机器学习解决方案的云端服务中,体验到TPU在运算上的优异效能。


『本文转载自网络,版权归原作者所有,如有侵权请联系删除』

热门文章 更多
降低功耗.简化设计.东芝全新内置保护功能光耦问市