0%

AI芯片研究综述

[TOC]

1 定义

​ 广义上讲,AI芯片指能一切够对AI算法进行部署运行的芯片,包括GPU、CPU、FPGA、ASIC等。

1.1 GPU

定义

​ GPU是一种由大量核心组成的大规模并行计算架构,专为同时处理多重任务而设计的芯片。

产品特点:

  1. 计算能力强大。GPU中超过80%部分为运算单元(ALU),擅长大规模并行运算。
  2. 产品成熟。目前,CPU+GPU异构模式已经在人工智能云端训练平台得到广泛应用。

市场格局:

​ 英伟达绝对领先,AMD跟随,英特尔规划进入;国内处于起步阶段,比特大陆2019年推出了第一代的产品,但市场份额几乎可以忽略。

发展趋势:

  1. 短期来看,GPU仍将主导AI芯片市场。GPU凭借其强大的计算能力、较高的通用性,将继续占AI芯片的主要市场份额。而且,两大GPU厂商都还在不断升级架构并持续推出新品,深度学习性能提升潜力大。
  2. 长期来看,GPU主要方向是高级复杂算法和通用型人工智能平台。

1.2 FPGA

定 义

​ FPGA(现场可编程门阵列)芯片集成了大量的基本门电路以及存储器,灵活性介于CPU、GPU和ASIC之间,在硬件固定之前,允许使用者灵活使用软件进行编程。

优 势:

  1. 算力强劲。
  2. 功耗较低。相比CPU和GPU,FPGA没有取指和译码操作,能耗比指标优秀。
  3. 灵活性好,成本有优势。

国际格局:

​ 当前,全球FPGA市场被赛灵思、英特尔、莱迪思等巨头垄断。其中,赛灵思和英特尔合计占到市场的70%左右,赛灵思的市场份额超过40%。

国内格局:

​ 国内FPGA市场刚刚起步,差距较大,主要市场依然为赛灵思、英特尔、莱迪思等国际大厂占据,其中2017年赛灵思和英特尔合计市场规模占比达到80%,国内厂商市场份额较小,只占4%。其中主要参与者包括高云半导体、上海安路科技、同创国芯等。

1.3 ASIC

定 义:

​ ASIC(专用芯片)是一种为特定目的、面向特定用户需求设计的定制芯片,具备性能更强、体积小、功耗低、可靠性更高等优点。在大规模量产的情况下,还具备成本低的特点。

性 能:

​ ASIC芯片主要应用于深度学习加速。其中表现最为突出的ASIC就是Google的TPU(张量处理芯片)。谷歌数据显示,TPU 平均比当时的 GPU 或CPU 快15-30倍,能耗比高出约 30-80倍。

市场格局:

​ 国外主要是谷歌在主导,国内企业主要是寒武纪。近年来,国内一些AI算法企业开始向下游延伸,针对自身算法特点自研或者联合开发芯片,行业呈现出百花齐放的状态。

风 险:

​ ASIC一旦制造完成以后就不能后续修改,且研发周期较长、商业风险较大。一般只有大企业或背靠大企业的团队愿意投入到它的完整开发中。

2 分类

2.1 按照承担任务划分

推理芯片

​ 用于算法模型开发和训练。

训练芯片

​ 用于应用层,利用训练好的模型,通过芯片计算“推理”出结果。

2.2 按照部署位置划分

云端芯片

​ 部署在公有云、私有云或者混合云上,不但可用于训练,也可用于推理,算力强劲。

边缘端芯片

​ 主要应用于嵌入式、移动终端等领域,此类芯片一般体积小、耗电低,性能要求也相对不高,一般只需具备一两种AI能力,用于推理。

3 ASIC

AI芯片:几种常见类型的AI芯片

AI芯片:指令集架构处理器Diannao分析

AI芯片论文:ASIC系列