公司动态

英特尔CPU占据AI推理芯片市场主导地位

竞争人工智能芯片市场的公司,从芯片巨头英特尔、高通、Arm和Nvidia,到传统的互联网技术巨头,还有Graphcore、Mythic和WaveComputing等许多新兴企业。当前,英特尔CPU占据了AI推理芯片市场的主导地位,而Nvidia则是AI训练芯片市场的主导。

当前,对AI应用在边缘端的需求日益迫切,推动了相应的AI推理芯片的发展。我们所说的边边边的AI,指的是在边边设备本身,而不是在云端或大型数据中心服务器上运行的AI推理,它有很多好处,比如消除处理延迟,减少数据传输和带宽,以及提高隐私安全。考虑到这一优势,边缘AI芯片市场的增长非常显著——第一个商业企业边缘AI芯片在2017年才问世,德勤预测,到2020年,该市场的销量将达到7.5亿片。

全球人工智能芯片市场在2018年达到66.4亿美元,预计在未来几年内将有显著增长,到2025年达到911.9亿美元,年均增长45.2%。所以很多公司都在努力开发AI芯片。不过,与CPU、GPU和基带处理器市场的成长过程相似,AI芯片市场也正在经历由少数大公司主宰的命运。

竞争人工智能芯片市场的公司,BAT30KFILM从芯片巨头英特尔、高通、Arm和Nvidia,到传统的互联网技术巨头,还有Graphcore、Mythic和WaveComputing等许多新兴企业。当前,绝大多数(90%)边缘AI芯片用于消费设备,而许多智能手机制造商也在开发自己的AI加速技术,比如苹果为iPhone设计的8核神经引擎。

边缘AI芯片市场目前仍处于比较开放的竞争状态,尚无绝对霸主。业界和投资者都在密切关注技术和产品实力很强的公司。这一领域的进步是通过投资,收购和优胜劣汰来实现的。市场领袖很有可能在未来几年出现,那么,在边缘AI芯片领域,谁将是英特尔或高通?

从广义上讲,AI芯片的领导者是英特尔和英伟达(Nvidia)。当前,英特尔CPU占据了AI推理芯片市场的主导地位,而Nvidia则是AI训练芯片市场的主导。不过,Nvidia似乎比英特尔更胜一筹,在数据中心AI芯片市场占据主导地位。为赶上竞争对手,英特尔一直在通过收购相关AI芯片公司来提高技术能力,并于2019年12月以20亿美元收购以色列深度学习加速器开发商Habana。

哈巴纳的Goya加速器的确具有独特性,而且它的技术也很新颖,比如支持远程直接存储器存取(RDMA),即可以从一台机器的存储器直接存取到另一台机器的存储器,而不需要使用任何机器的操作系统。这个特性尤其适用于大型并行计算机集群,因此可以用来对复杂的模型进行云培训(目前,Nvidia在这一领域占主导地位)。另外一方面,Nvidia最近发布了它的JetsonXavierNX边缘AI芯片,它的运算能力达到21TOPS,尤其是AI推理能力。

另外,一些AI芯片新星也引人注目,比如英国的Graphcore,他们最近与微软合作,为1500万美元提供了19.5亿美元的融资。它们的旗舰产品——智能处理单元(IPU)——有很高的性能指标和新颖的结构,例如,它将整个ML模型放置在处理器中,以最小化延迟,使内存带宽最大化。

另一个新公司Mythic的架构也同样值得关注,该架构结合了诸如内存计算(无需构建缓存层次结构)、数据流体系结构(尤其适合基于图形的应用,如推理)和模拟计算(通过将内存元素用作可调电阻计算,直接在内存中进行神经网络矩阵运算)等硬件技术。在融资方面,Mythic也没有落后于Graphcore,在2019年6月,像软银这样的投资者已经投资了3千万美元。

尽管最终谁将主宰AI芯片市场尚不清楚,但从历史发展(如CPU和基带处理器)经验来看,IP是制胜的关键,谁在这一领域领先,谁就会在竞争中占据优势。所以创新仍然是企业成长的关键。

新型芯片结构与技术。

就创新而言,今年陆续出现了一些新的边缘AI芯片架构,主要是针对边缘AI的优化。新出现的RISC-V在这一过程中发挥了重要作用。RISC-V指令集架构是开放源码的,具有多种指令扩展,可以提高边缘AI的性能,降低功耗。因此,RISC-V的边缘侧应用给Arm带来了挑战。

十月,Nvidia提出收购Arm,再次引发了Arm和RISC-V之间的争论。作为回应,Facebook的首席人工智能科学家YannLeCun在法国研究实验室CEA-Leti的创新日上表示,应该将神经网络转移到RISC-V,以便为边缘AI应用使用神经网络。

“Nvidia收购Arm的举动令人不安,它让人们更多地看到了RISC-V的发展潜力,RISC-V处理器价格低廉,不到10美元,而且很多都来自于中国,这些处理器将变得无处不在。”

YannLeCun说:“边缘AI是一个非常重要的话题,在接下来的两三年里,它意味着尽可能减少能量消耗,调整神经网络,优化权值,关闭不用的部分。使用这类AI芯片的AR设备将在未来两三年内陆续出现。”

“十年后,是否会在自旋电子学上有所突破,或者说,是否会出现任何不需要硬件复用的模拟计算?”在没有硬件复用的情况下,我们是否也能想出类似的东西,大幅缩减设备的单个芯片尺寸,这是一个巨大的挑战。”

该公司正在为下一代芯片开发1nm和2nm技术,我相信我们可以用另一种方式,利用传感器、神经网络和控制器来实现这一硬件,这一点非常重要。我们正致力于国家计划,目的是通过边缘AI来阻止数据泛滥和保护隐私。”

莱蒂还参与了欧洲范围内的神经网络项目,该项目正在开发神经网络芯片的新平台。

“现在,我们已经有超过2000人在为研究下一代AI技术而奋斗,”CEA-Leti的副CEO兼首席技术长JeanReneLequeypes说。Belchim的Immek,德国的Flaunhoff和Letti正在开发一个边缘AI平台,除此之外,我们在Inria的Gernoble工作,开发Facebook和硅谷大公司需要的下一代技术和产品。”

问题是,不需要使用5nm制程和以下要求的EUV光刻机就可以集成所有不同的元件。

我们想要获得1000TOPS/mW的最高性能,这是一项巨大的挑战,需要对信息存储进行处理,并且需要在不使用EUV的情况下将它们集成起来。”

低功耗边缘AI芯片的突破

上面,提到了高性能和低功耗,在边缘方面,对低功耗的要求很高,从某种意义上说,这比性能更重要。它是当前边缘AI芯片研究的热点。

比利时的Imec公司使用一项新技术开发了测试芯片,它可以显著降低机器学习边缘AI系统的功耗。

仿真内存计算(AiMC)架构使用修改过的内存单元来处理训练过的神经网络网络边缘的数据,其效率为2900TOPS/W。

imec机器学习项目的负责人DeadericVickster说:“我们建立了一个特殊的计算单元,通过减少数字传输来节省能源。他说:“根据脉宽,在进行数值计算之前,可以在ADC上求出加权。

"在这个芯片中,我们使用了3级重量。权值可以是-1,0,或者1,我们使用了两个SRAM单元来存储这个权值等级。计算器是一种模拟电路,它在两个SRAM单元上有多个附加晶体管,从而产生与3级存储权和激活信号(DAC的输出)成比例的模拟信号。所以,严格来说,3级权重以数字形式存储,但是所有的计算都在模拟域进行。”

“模拟推理加速器(AnIA)的成功流片标志着AiMC验证的重要一步,”他补充道:“参考设计表明,不仅模拟内存计算在实际中是可行的,而且它们的能源效率比数字加速器高出10-100倍。在我们看来,这是机器学习程序中的一个里程碑,它表明模拟计算可以和数字计算有同样的精度。”

安联测试芯片已经采用了22nmFD-SOI的低功耗加工平台,该平台位于德国德累斯顿的格芯(GF),芯片面积4平方毫米,有1024个输入信号和512个输出信号,其性能与今天的GPU相似。其显示精度与数字实现相同,只有1%,但能源效率为2900TOPS/W。在嵌入式硬件中,低功耗和低成本的结合为图像边缘识别和边缘检测提供了机会。

“在AI领域,模拟计算是一个非常有发展前途的前沿技术,因为它可以减少数据流动,这将成为主流,”GF计算和有线基础设施产品管理副总裁HirenMajmudar表示。”

马哈德说:“这款测试芯片向业界展示了22FDX可以显著降低机器学习应用芯片的功耗。它的性能和GPU是一样的,但是能源效率更高。”

现在正在德国德累斯顿Fab1公司的先进300mm生产线上开发新的AiMC功能。

预期模拟计算AI芯片将于今年年底或明年年初投入生产,并可能在2022年晚些时候上市,或者更早一些。

使用改进的SRAM单元,GF还可以使用其他存储器技术,如MRAM、闪存、DRAM等。

Socionext公司开发了一种原型芯片,该芯片将最新开发的量化深度神经网络(DNN)技术与小型低功耗边缘计算设备相结合,实现了先进的AI处理能力。这个原型是由日本新能源与工业技术发展组织委托进行的“低功耗AI-EdgeLSI技术开发”项目的一部分。

Socionext开发了一个专有架构,它基于“量化DNN技术”来减少深度学习所需的参数和活动性。这样可以提高AI处理的性能,同时降低功耗。除了传统的8位系统外,该架构整合了1位(二进制)和2位(三位)的比特缩减,并采用了该公司的原始参数压缩技术,从而大大减少了计算量。

另外,公司还开发了一种新的片上存储技术,能够有效地传输数据。

这种新技术被集成到原型AI芯片中,据说其耗电量不足5W。它说,这比传统通用GPU的效率提高了10倍。

Sima.ai也是一家初创的AI公司,它开发了一种被称为MLSoC的芯片,一个用于计算机视觉的卷积神经网络平台。此芯片原计划于2020年底流片,16纳米制程。这家公司的目标是达到每秒处理最多帧。

据该公司介绍,这种芯片在5W时可以提供50TOPS的运算能力,在20W时可以提供200TOPS。

在被问及如何与英特尔-Mobileye和Nvidia这样的老牌公司竞争时,Sima.ai公司高层表示,降低能源消耗是关键,因为客户想要扩展他们的工作负荷,同时能源消耗受到限制。

有待解决的问题

当前,边缘AI芯片技术与市场还不成熟,还处于群雄逐鹿阶段。在此期间,各种规范尚未形成,存在着诸如系统偏差、AI伦理道德等问题和隐患。

亚马逊AI和机器学习相关人员表示,即使是出于最佳意图,数据集中也可能会出现偏差,并引入商业、道德和监管模式。也就是说,模型管理员必须理解系统中潜在的偏差源。

对简单且易于理解的算法来说,破译模型,检查在训练过程中学到的参数,以及决定它主要使用什么函数是非常容易的。

但是,当模型变得越来越复杂时,这种分析就不可能了。在将ML模型用于生产之前,许多公司和组织可能需要先使用ML模型。另外,当ML模型被用作相应决策的一部分时,某些规则可能需要解释,而当循环结束时,解释能力也可以帮助发现偏差。

这一点的关键是将这些偏差监测和减轻工具集成到边缘AI工作流中,以便开发者使用。

伴随着AI技术的发展,其伦理道德问题开始浮现出来,并与下列原则相关:人类自主、可解释、持续关注与警觉、隐私与安全设计。