2017年全球与中国人工智能芯片行业市场前景研究报告.docVIP

2017年全球与中国人工智能芯片行业市场前景研究报告.doc

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
2017 年全球及中国人工智能芯片行业市场前景研究报告 一、人工智能的高速发展催生 AI 芯片 随着大数据的发展,计算能力的提升,人工智能近两年迎来了新一轮的爆发。而人工智能的实现依赖三个要素:算法是核心,硬件和数据是基础,芯片就 是硬件的最重要组成部分。它其实包括两个计算过程: 1、训练( Train ); 2、应用( Inference )。 为什么需要人工智能芯片?神经网络算法应用的不断发展,使得传统的 CPU 已经无法负担几何级增长的计算量。 深度学习作为机器学习的分支, 是当前人工智能研究的主流方式。 简单说就是用数学方法模拟人脑神经网络, 用大量数据训练机器来模拟人脑学习过程, 其本质是把传统算法问题转化为数据和计算问题。所以对底层基础芯片的要求也发生了根本性改变: 人工智能芯片的设计目的不是为了执行指令,而是为了大量数据训练和应用的计算。 AI 芯片的诞生之路 资料来源:公开资料整理 二、人工智能芯片三种技术路线分析 目前适合深度学习的人工智能芯片主要有 GPU、FPGA、ASIC 三种技术路线。三类芯片代表分别有英伟达( NVIDIA)的 Tesla 系列 GPU、赛灵思( Xilinx )的FPGA和 Google 的 TPU。GPU最先被引入深度学习,技术最为成熟; FPGA具有硬件可编程特点,性能出众但壁垒高。 ASCI 由于可定制、低成本是未来终端应用的趋势。 1、DPU GPU使用 SIMD(单指令多数据流)来让多个执行单元以同样的步伐来处理不同的数据, 原本用于处理图像数据, 但其离散化和分布式的特征, 以及用矩阵运算替代布尔运算适合处理深度学习所需要的非线性离散数据。 作为加速器的使用,可以实现深度学习算法。 GPU由并行计算单元和控制单元以及存储单元构成 GPU拥有大量的核(多达几千个核) 和大量的高速内存, 擅长做类似图像处理的并行计算, 以矩阵的分布式形式来实现计算。同 CPU不同的是, GPU的计算单元明显增多,特别适合大规模并行计算。 GPU与 CPU的比较 资料来源:中商产业研究院 2、FPGA FPGA是用于解决专用集成电路的一种方案。 专用集成电路是为特定用户或特定电子系统制作的集成电路。 人工智能算法所需要的复杂并行电路的设计思路适合用 FPGA实现。FPGA计算芯片布满“逻辑单元阵列”,内部包括可配置逻辑模块,输入输出模块和内部连线三个部分, 相互之间既可实现组合逻辑功能又可实现时序逻辑功能的独立基本逻辑单元。 FPGA相对于 CPU与 GPU有明显的能耗优势,主要有两个原因。首先,在FPGA中没有取指令与指令译码操作,在 Intel 的 CPU里面,由于使用的是 CISC 架构,仅仅译码就占整个芯片能耗的 50%;在 GPU里面,取指令与译码也消耗了10%~ 20%的能耗。其次, FPGA的主频比 CPU与 GPU低很多,通常 CPU与 GPU都 在 1GHz到 3GHz之间,而 FPGA的主频一般在 500MHz以下。如此大的频率差使得 FPGA消耗的能耗远低于 CPU与 GPU。 3、ASIC ASIC(专用定制芯片)是为实现特定要求而定制的芯片,具有功耗低、可 靠性高、性能高、体积小等优点,但不可编程,可扩展性不及 FPGA,尤其适合高性能 / 低功耗的移动端。 目前,VPU和 TPU都是基于 ASIC 架构的设计。针对图像和语音这两方面的人工智能定制芯片,目前主要有专用于图像处理的 VPU,以及针对语音识别的FAGA和 TPU芯片。 图像应用和语音应用人工智能定制芯片 资料来源:中商产业研究院 三、全球人工智能芯片行业发展现状 1、全球人工智能芯片行业规模分析 2016 年人工智能芯片市场规模达到 6 亿美金,预计到 2022 年将达到 60 亿美金,年复合增长率达到 46.7%,增长迅猛,发展空间巨大。 数据来源:中商产业研究院 2、全球人工智能芯片行业格局分析 2016 年成为芯片企业和互联网巨头们在芯片领域全面展开部署的一年。 而在这其中,英伟达保持着绝对的领先地位。但随着包括谷歌、脸书、微软、亚马 逊以及百度在内的巨头相继加入决战, 人工智能领域未来的格局如何, 仍然待解。 从云端芯片来看,目前 GPU占据云端人工智能主导市场,占人工智能芯片市场份额的 35%。而在这其中, GPU的领跑者英伟达( Nvidia )因其在人工智能领域的优势使其成为了资本市场的绝对宠儿: 在过去的一年中, 曾经以游戏芯片 见长的 Nvidia 股价从十几年的稳居 30 美元迅速飙升至 120 美元。据悉,世界上 目前约有 3000 多家 AI 初创公司,大部分都采用了 Nvidia 提供的硬件平台。 互联网和芯片行业巨头纷纷布局  AI  芯片领域 资料来源:公开资

文档评论(0)

183****6506 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档