产品中心

m6在线登陆·人工智能语音芯片行业研究分析报告

发布时间:2024-04-04 10:04:29 来源:M6官网注册 作者:M6米乐手机登录APP入口

  人工智能是近三年来最受关注的核心基础技术,将深刻的改造各个传统行业。人工智能在图像识别、语音识别领域的应用自2017年来高速发展,是人工智能最热点的两项落地应用。专用的人工智能芯片是该应用的技术基础与核心,也将随之迎来高速发展。

  谷歌、百度、阿里、腾讯等互联网巨头以及多家知名的风险投资基金疯狂涌入人工智能行业,大力推动了各初创算法(方案)公司在多个应用领域商业化落地。算法公司对有效需求进行筛选和培育后,落地成功的市场将实现高速乃至爆发性增长,为上游配套的芯片公司创造了明确而广阔的市场空间。图像(人脸)识别系统、智能音箱是近两年比较明确的人工智能技术的落地应用。

  人工智能芯片行业是人工智能和集成电路的交叉产业,具有双重壁垒。一是人工智能行业具有很高的算法、数据、应用场景壁垒,二是芯片设计行业具有较高的人才、技术、经验和资金的综合壁垒。近期多家算法公司及传统芯片设计公司都推出了AI芯片,形成了新的产业及投资热点。

  中短期内,近期蓬勃发展的“万物互联”+“万物智能”生态将催生巨量的终端人工智能芯片需求,覆盖智能监控、智能家居、物联网、自动驾驶等多个热点领域。每个热点领域的爆发,都将带来特定AI终端芯片的爆发式增长。

  长期来看,拥有强大的云端训练和推理能力的通用人工智能芯片将随着应用的逐步落地而保持长期稳定的增长。由于云端芯片对性能的极致追求,将逐步成为芯片行业的技术制高点,并且由于其具有广泛的通用性,甚至有可能孕育出因特尔、英伟达级别的新的云端领域的芯片巨头。一般来说,终端芯片对成本、功耗等因素的要求更高,传统芯片设计公司更有优势;云端芯片对算法、性能的要求更高,算法公司更有优势。

  2、语音识别是人工智能技术迄今为止最明确的落地应用之一,终端人工智能语音芯片将迎来高速增长。

  多家算法公司大力推动语音识别技术的落地应用,形成了算法、终端应用方案一体化的产业格局,并逐步开始自研或与传统芯片设计公司合作推出研发芯片,形成了语音算法和芯片设计公司既互补又竞争的格局。传统芯片公司大规模进入该行业,推动了低成本、低功耗专用语音识别芯片的实现,将进一步积极推动各类语音应用的迅速发展。

  人工智能芯片(简称AI芯片)是指含有专门处理人工智能应用中大量计算任务模块的芯片,属于集成电路和人工智能的交叉领域。自2016年以来,谷歌、百度、阿里、腾讯等互联网巨头以及多家知名的风险投资基金疯狂涌入人工智能行业,大力推动各初创算法(方案)公司在多个应用领域商业化落地。随着人工智能在视觉识别、语音识别等领域明确的商业化应用不断涌现,人工智能算法及方案芯片化、硬件化的趋势日益明显,具有深度学习算法加速功能的芯片需求快速提升。

  人工智能领域的高速发展,取决于对前沿算法的研究、落地应用场景的积极探索及通过先进的芯片设计、制造技术来满足日益明确的商业需求三个关键因素。商汤科技、旷视科技、科大讯飞、思必驰、华为、寒武纪等多家中国公司对于前沿算法的研究已经走在全球前列,与美国齐头并进。中国对于落地应用的探索更是全球领先,已经出现包括人脸识别、智能安防、智能音箱、智能家居等多个落地的商业场景。

  新一代的AI芯片创业公司结合应用特点,采用了合理的先进芯片设计、制造技术,与美国同类公司相比位于同一起跑线上。业界普遍认为,AI芯片之争是中美两国公司间的竞争,中国目前暂时落后。但由于在应用探索上更加积极,未来中国AI芯片有可能超越竞争对手,成为全球领军力量。

  AI芯片按照应用场景可以分为云端芯片和终端芯片,按照功能可以分为训练芯片和推理芯片。云端指服务器端,终端指包括手机、电脑、监控摄像头、家电、消费电子等在内的电子终端产品。训练指通过大量的数据输入,运用增强学习等非监督学习方法,训练出一个复杂深度神经网络模型的过程,其对芯片运算和存储的综合性能要求很高。推理指利用训练好的模型,使用新的数据去得出各种结论、完成各种任务的过程,其对芯片的速度、能耗、安全和硬件成本要求较高。

  按照以上两个维度,可以将AI芯片划分至四个象限。其中,终端/嵌入式设备以推断应用为主,训练的需求尚不是很明确,但是,未来的终端设备将逐步具备训练和学习的能力。

  自芯片诞生以来,人类对芯片设计、高纯度硅工艺、超高精密设备、物理化学工艺的不断探索,促进了芯片技术的快速发展,芯片的计算能力呈指数形式增长,推动了个人计算机和互联网时代的诞生和发展。

  2006年,以深度学习算法为标志的新一代人工智能诞生,2016和2017年,基于深度学习技术、运行于TPU(ASIC)上的Google人工智能AlphaGo相继战胜人类围棋世界冠军李世石、柯洁,引发新一轮人工智能发展热潮,计算能力再次成为人工智能时代的核心驱动力。AI芯片则是计算能力提升的集中体现,成为人工智能“大脑”的基础。

  2010年至今,不同功能和定位的芯片均开始被研发用于深度学习算法,初步形成了GPU、FPGA、ASIC等繁荣共生的AI芯片行业。

  AI芯片的设计、制造流程与其他芯片类似,由设计、制造、封装测试等环节组成。AI芯片设计公司下游为应用方案公司,方案公司将其整体解决方案(包括运行于云端和终端的各类软硬件)最终用于具体应用场景。目前处于AI领域发展初期,中国的算法公司投入大量资金及精力探索落地应用,算法公司与应用方案公司实际上已经合为一体。具体来看:

  在下游应用环节,算法及方案公司根据不同的应用场景,制定云端和终端的芯片布局方案。其中,云端为应用场景训练可靠的人工智能算法,并承担大部分复杂的推理任务,终端直接为应用场景输出结果。目前,人工智能在安防、金融、医疗和教育等领域均获得了快速落地并形成了可推广的案例。

  在上游环节,不同的人工智能算法对AI芯片的加速功能提出了不同要求,需要AI芯片设计公司根据算法特点,设计具有特定加速功能的芯片。按照推理和训练划分来看,训练环节所需的运算包括前向计算和后向更新,推断环节则主要是前向计算。前向计算包括矩阵相乘、卷积和循环层运算等,后向更新主要是梯度运算。

  所以,两个环节运算特点不尽相同。云端侧重训练,算法更加复杂和广泛,对芯片的通用性和综合性能要求更高;终端侧重推理,算法更加高效可靠,对芯片的专用性和效率要求更高。同时,由于芯片具有一旦设计完成基本不可更改的硬件属性,算法公司需要结合算法的发展现状在现有AI芯片技术条件下选择合适的芯片架构及软硬件功能划分。

  综合来看,算法与AI芯片设计互相影响。作为AI芯片公司,需要充分了解和掌握算法规律,设计出符合发展需求的AI芯片;作为算法公司,需要在各类AI芯片,尤其是专用芯片的基础上,实现算法的演进。

  首先,人工智能行业存在两道壁垒。第一道壁垒是算法,只有掌握深度学习算法并具备持续更新算法的能力,才算真正进入人工智能的大门。第二道壁垒是对应用场景的理解,只有将算法在具体应用场景中落地,形成数据加算法的闭环,才能通过数据反哺算法,形成超越竞争对手的优势。

  其次,芯片设计行业存在技术、人才、经验和资金的综合壁垒。芯片设计产业链环节多,需要多方面、多层次、多梯度的人才及丰富的量产工程化经验。需要采用先进制程的AI芯片,流片费用高达几千万,产品研发周期长达1-2年,新公司的进入门槛很高。

  目前,在训练环节,由于需要更高效地进行大规模并行计算,英伟达GPU占据垄断性地位,因特尔CPU+FPGA、谷歌TPU和寒武纪MLU等ASIC方案也在加速追赶。

  在推理环节,不同的异构芯片或专用芯片算力表现处在发展变化的过程中。云端推理方面,Intel的CPU+FPGA架构具有强大能力,英伟达也通过Volta架构大大提升了其GPU的推理性能;终端推理方面,由于更接近最终应用,不同的细分市场算法差别较大,ASIC由于专用性强、效率高、功耗低,成为主流选择,FPGA则适合用于算法方案快速变化的终端领域。

  综合来看,未来可能呈现如下产业格局:GPU应用于高端复杂算法、高性能计算和数据中心;ASIC在云端训练、推理及智能终端广泛应用;FPGA 应用于变化较快的行业应用和虚拟化云平台。

  GPU(Graphics Processing Unit)是一种进行图形运算工作的微处理器。随着通用计算技术发展,GPU的功能已经不再局限于图形处理,在浮点运算、并行计算等高性能计算方面开始有广泛的应用。目前支持金融工程学、气象及海洋建模、数据科学及分析、国防与情报、制造业(CAD制图及CED)、成像与计算机视觉、医学影像、电子设计自动化、计算化学等多个领域共150多种应用程序的加速。但由于其功耗较高,主要用于云端计算。

  GPU是目前深度学习算法训练的首选芯片,在该领域拥有最高的市占率。其拥有完备的人工智能计算软件生态,越来越多的深度学习标准库支持基于GPU的深度学习加速。与CPU相比,GPU适用于密集型程序以及并行计算,而CPU擅长于逻辑运算和串行计算。

  英伟达的GPU产品主要包括PC端处理器GeForce、移动处理器Tegra和深度学习芯片Tesla。其中Tesla的核心产品包括基于PASCAL架构和Volta架构的系列芯片。

  目前英伟达的GPU产品主要应用于各类计算平台、数据中心加速和深度学习训练,应用领域包括医疗、汽车、智能家电、金融服务等。基于Tegra系列处理器,英伟达发布了DRIVE PX开放式人工智能车辆计算平台,可实现包括高速公路自动驾驶与高清制图在内的自动巡航功能,应用的特斯拉ModelS已经开始量产,百度、沃尔沃也跟英伟达达成了合作,他们都将生产搭载DRIVE PX的智能驾驶汽车。

  英伟达2018年5月推出的Telsa V100浮点运算速度提高了1.5倍,深度学习训练速度提高了12倍,推理速度提高了6倍。

  ATI是与英伟达齐名的显卡制造商,2006年被AMD以54亿美元收购。2017年8月,AMD搭载深度学习功能的新一代GPU正式发布,在各项测试和应用中性能超过英伟达Pascal系列。2018年,AMD 公开展示了全球首款7纳米制程的GPU芯片原型。总体而言,AMD在产品生态和市场份额方面不如英伟达,但仍是全球仅次于英伟达的GPU厂商。

  景嘉微是国内唯一拥有自主知识产权和成熟产品的图形处理芯片公司。公司创建于2006年4月,2016年3月在深圳证券交易所挂牌上市,现有员工400多人。公司创新的MPPA架构提供单芯片超算解决方案,具有高性能、低功耗、实时性等特点,可以为视频、网络、电信、大数据等领域的云计算应用实现实时加速,还可以为航空航天、国防、汽车等领域的嵌入式应用提供嵌入式高性能运算能力。但是,景嘉微与国外GPU巨头技术差距较大,短期内尚无可能影响人工智能GPU芯片的产业格局。

  FPGA为现场可编程门阵列。高密度计算、大吞吐量和低功耗的特点使其在各个行业领域有较大的发展空间。

  在通信领域,FPGA主要用在通信和无线设备系统,为数据中心提供更高的能源效率、更低的成本和更高的扩展性,还可以用于 5G 的可编程解决方案;在工业领域,FPGA可实现自动化、机器视觉和运动控制;在汽车领域,FPGA成为 ADAS 的主要处理平台,提供实时图像分析与智能传输。由于 FPGA 可编程,其在提供差异化产品和快速响应上有着极大的优势。此外,CPU+FPGA 的混合结构也可用于云服务计算。

  FPGA的市场发展迅速,但技术门槛比较高,目前市场上主要由Xilinx(赛灵思)与 Altera(阿尔特拉)两家公司主。


m6在线登陆
亮照