当前位置:首页 > 资讯 > 正文

人工智能芯片—推动经济社会发展新引擎核心技术

当前,人工智能正逐渐发展成为新一代通用技术,已广泛应用于医疗、金融、安防、教育、交通、物流等多个领域,带动生产流程、产品、信息消费和服务业智能化、高附加值转型发展,成为推动经济社会发展的新引擎。“无芯片,不AI”,人工智能产业得以快速发展,无论是算法的实现、海量数据的获取和存储,还是计算能力的体现都离不开目前唯一的物理基础——芯片。

一、AI芯片繁荣共生—GPU引领主流,ASIC割据一地

GPU:以英伟达为主,AMD为辅。依靠通用及灵活的强大并行运算能力,广泛契合当前人工智能监督深度学习以及生成式对抗网络(GAN)/强化学习所需要的密集数据和多维并算处理需求,在3-5年内GPU仍然是深度学习市场的第一选择。

人工智能芯片—推动经济社会发展新引擎核心技术  第2张

图1 人工智能领域四大芯片类型及主要芯片商

ASIC(专用集成电路):细分市场需求确定后,以TPU为代表的ASIC定制化芯片,将在确定性执行模型的应用需求中发挥作用。例如比特币早年间的挖矿热潮就从GPU 通用算力堆积逐步转向了ASIC 专用矿机。

FPGA(现场可编程门阵列):依靠电路级别的通用性,加上可编程性,适用于开发周期较短的IoT 产品、传感器数据预处理工作以及小型开发试错升级迭代阶段等。但一般较成熟的量产设备大多采用ASIC。FPGA 厂商包括Xilinx、Altera(英特尔)、Lattice 及Microsemi。

二、人工智能芯片发展路线—从底层结构模拟人脑

目前人工智能芯片涵盖了基于FPGA 的半定制、针对深度学习算法的全定制、类脑计算芯片三个阶段。

人工智能芯片—推动经济社会发展新引擎核心技术  第3张

图2 人工智能芯片发展阶段

基于FPGA 的半定制人工智能芯片。在芯片需求还未成规模、深度学习算法暂未稳定需要不断迭代改进的情况下,利用具备可重构特性的FPGA 芯片来实现半定制的人工智能芯片是最佳选择。

针对深度学习算法的全定制人工智能芯片。完全采用ASIC 设计方法全定制,性能、功耗和面积等指标面向深度学习算法做到最优。以谷歌的TPU 芯片、我国中科院计算所的寒武纪深度学习处理器芯片为典型代表。

类脑计算芯片。不再局限于仅仅加速深度学习算法,而是在芯片基本结构甚至器件层面上希望能够开发出新的类脑计算机体系结构,比如会采用忆阻器和ReRAM 等新器件来提高存储密度。

三、人工智能芯片产业应用领域

智能手机。2017年,华为发布麒麟970芯片,该芯片搭载了寒武纪NPU,成为“全球首款智能手机移动端AI芯片”;同年10月,搭载NPU的华为Mate10系列智能手机具备了较强的深度学习、本地端推断能力,让各类基于深度神经网络的摄影、图像处理应用能够为用户提供更加完美的体验。

ADAS(高级辅助驾驶系统)。ADAS是最吸引大众眼球的人工智能应用之一,它需要处理海量的由激光雷达、毫米波雷达、摄像头等传感器采集的实时数据。相对于传统的车辆控制方法,智能控制方法主要体现在对控制对象模型的运用和综合信息学习运用上,包括神经网络控制和深度学习方法等。

CV(计算机视觉(Computer Vision)设备。需要使用计算机视觉技术的设备,如智能摄像头、无人机、行车记录仪、人脸识别迎宾机器人以及智能手写板等设备,而计算机视觉技术目前看来将会成为人工智能应用的沃土之一,计算机视觉芯片将拥有广阔的市场前景。

机器人。无论是家居机器人还是商用服务机器人均需要“专用软件+芯片”的人工智能解决方案,这方面典型公司为地平线机器人,除此之外,还提供ADAS、智能家居等其他嵌入式人工智能解决方案。

四、人工智能芯片技术发展趋势

更高效的大卷积解构/复用。在标准SIMD的基础上,CNN由于其特殊的复用机制,可以进一步减少总线上的数据通信,而复用这一概念,在超大型神经网络中就显得格外重要。如何合理地分解、映射这些超大卷积到有效的硬件上成为了一个值得研究的方向。

更低的Inference计算/存储位宽。AI芯片最大的演进方向之一可能就是神经网络参数/计算位宽的迅速减少——从32位浮点到16位浮点/定点、8位定点,甚至是4位定点。在理论计算领域,2位甚至1位参数位宽,都已经逐渐进入实践领域。

更多样的存储器定制设计。当计算部件不再成为神经网络加速器的设计瓶颈时,如何减少存储器的访问延时将会成为下一个研究方向。通常,离计算越近的存储器速度越快,每字节的成本也越高,同时容量也越受限,因此新型的存储结构也将应运而生。

计算和存储一体化。其要点是通过使用新型非易失性存储(如ReRAM)器件,在存储阵列里面加上神经网络计算功能,从而省去数据搬移操作,即实现了计算存储一体化的神经网络处理,在功耗性能方面可以获得显著提升。