加入收藏 | 设为首页 | 会员中心 | 我要投稿 宿州站长网 (https://www.0557zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 大数据 > 正文

各大企业为何竞逐AI芯片?

发布时间:2021-07-27 17:47:00 所属栏目:大数据 来源:互联网
导读:8月23日,华为宣布其自研的AI 芯片Ascend 910(昇腾910)正式上市商用,与之一同发布的还有的新一代AI开源计算框架 MindSpore ,全面对标谷歌TensorFlow和FaceBook的PyTorch,并计划2020年第一季度全面开源开放。 据华为副董事长、轮值董事长徐直军介绍,昇腾9
4.FPGA能进行管理也能运算,但是开发周期很长,复杂算法开发难度大。适合流处理算法,不管是整块数据进还是一个一个进。还有就实时性来说,FPGA是最高的。前三种处理器为了避免将运算能力浪费在数据搬运上,一般要求累计一定量数据后才开始计算,因此产生群延时,而FPGA所有操作都并行,因此群延时可以很小。
 
了解了以上类型的芯片之后,就不难分析AI芯片如何得以超越CPU计算性能如此多倍。所谓AI芯片,一般是指为了进行人工智能相关的运算而进行有针对的优化过的专用芯片(ASIC芯片)。
 
例如,人工智能领域发展火热的自动驾驶,需要识别道路、行人、交通灯等状况, 如果使用CPU去进行计算,那么极有可能出交通事故。前面已经提到过,CPU擅长控制,并且其设计决定了在工作时为了减小数据传输对运算力的浪费,需要累积到一定数据量才进行计算,而这根本无法满足自动驾驶情景所需要的强实时性。而如果使用GPU计算,在承担高功耗的同时只能利用起其中部分的计算资源,不论是在云端还是终端,都不是一个具有良好能耗比的选择。而且,GPU不但能耗比低,其价格也一直高居不下,且供应不稳定;所以通用型芯片在进行人工智能相关计算时的功耗、效率、价格等因素一起促成了人工智能专用芯片的开发和商用。
 
目前,AI的应用并未在自动驾驶领域过多展开,主要还是集中在图像识别、语音识别、自然语言处理等领域。这些领域内的算法本质上来说都是矩阵或向量的加、乘运算。目前最先进的服务器CPU之一,IBM POWER8(目前该系列已有POWER9,性能提升1.5倍),拥有4G主频,128位位宽。假设处理8个16位的数据,一个周期最多执行8个乘/加计算。理论上一次最多执行16个操作,那么此CPU理论每秒巅峰计算次数是:16*64Gops=64Gops。
 
再看谷歌的人工智能专用张量计算芯片TPU1.0(目前已到TPU3.0),主频只有700MHz,然而拥有64,000个乘/加单元,单词最多执行64,000*2=128K次计算,因此其理论巅峰计算次数位:128K*700M=89,600Gops,约90Tops,非常高数量级的计算量。目前我们所看到的端侧人工智能芯片算力多在10T内,是因为端侧人脸识别等人工智能应用要求算力的同时也需要保持低功耗,所以不会出现如此夸张的数值。但通过计算对比,足以看出在人工智能计算方面专用芯片和通用芯片的效率差距。
 
总结而言,CPU与GPU并不是AI专用芯片,为了实现其他功能,内部有大量其他逻辑,而这些逻辑对于目前的AI算法来说是无用武之地的,所以,导致CPU与GPU不能成为最优的性价比之选;而FPGA更是因为价格高,开发周期长,而多被用于设计开发的前期验证步骤。因此,随着人工智能需求发展,神经网络层数加深,更加有效率的专用芯片对于布局人工智能的科技企业将会愈发重要。华为此次发布的昇腾910芯片属于Ascend-max系列,其技术规格在HC2018大会上已经公布:半精度(FP16)算力达256T-Flops,整数精度(INT8)算力达到512T-ops,功耗310W。现在,昇腾910已经被用于实际的AI训练任务,比如ResNet50神经网络等。同时,华为表示将继续投入,推出更多AI处理器,面向全场景持续提供更充裕、更经济、更适配的AI算力。虽然人工智能目前还处于初级发展阶段,但随着其发展领域横轴的拓宽,纵向应用的加深,相信在不久的将来,我们会看到更多高效、专注的人工智能专用芯片的出现。

(编辑:宿州站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读