AI芯片迎加速发展期我们可以投资在什么领域?.docxVIP

  • 0
  • 0
  • 约4.15千字
  • 约 7页
  • 2019-01-28 发布于湖北
  • 举报

AI芯片迎加速发展期我们可以投资在什么领域?.docx

华领集团 hualinggroup.cn 引领中国产业变革趋势的智慧型投资集团 以“MA+PE”为核心价值连接点,连接起投资管理、财富管理、创新咨询三大业务板块 布局智能经济与绿色经济两大产业,致力于打造融产业、资金、资本于一体的产业金融生态圈。 AI芯片迎加速发展期,我们可以投资在什么领域? 科技不断地给人们惊喜,人工智能成为现在科技的代表。在今年的九月,人工智能芯片在德国的柏林国际消费电子产品展览会上进行了发布,这是华为企业的首款可以内置神经网络的人工智能芯片,也是全世界的第一款。 半导体是整个电子产业的心脏,无论是在PC时代、移动互联网时代还是即将到来的AI时代,都离不开半导体尤其是处于核心地位的芯片支撑。AI时代的到来使各主要国家、科技巨头纷纷卡位布局芯片领域,不仅现有玩家愈演愈烈收购吞并,如博通欲强娶高通,软银大手笔收购ARM;玩家也纷纷试水,如苹果、特斯拉欲自研芯片,阿里频繁布局AI芯片初创公司。 什么是AI芯片: 芯片,又称微电路(microcircuit)、微芯片(microchip)、集成电路(英语:integrated circuit, IC)。是指内含集成电路的硅片,体积很小,常常是计算机或其他电子设备的一部分。 人工智能芯片是软件定义芯片,相比于传统CPU、GPU芯片,具有可重构计算和深度学习两大重要因素。可重构计算是指硬件架构和功能可以动态地、实时地跟随软件的变化而变化;深度学习,就是通过算法给机器设计一个精神网络,通过模拟大脑神经元之间传递、处理信息的模式,从多个角度和层次来观察、学习、判断、决策。当然,即使最先进的IBM的TrueNorth也只有人类100亿个神经元的万分之一功能。 在应用方面,当前人脸识别、语音识别等多个领域已经成为热点研究方向。 AI芯片分类 一项深度学习工程的搭建,可分为训练(training)和推断(inference)两个环节: 环节一:训练环境通常需要通过大量的数据输入,或采取增强学习等非监督学习方法,训练出一个复杂的深度神经网络模型。训练过程由于涉及海量的训练数据(大数据)和复杂的深度神经网络结构,需要的计算规模非常庞大,通常需要GPU 集群训练几天甚至数周的时间,在训练环节GPU?目前暂时扮演着难以轻易替代的角色。 环节二:推断(inference)环节指利用训练好的模型,使用新的数据去 推断 出各种结论,如视频监控设备通过后台的深度神经网络模型,判断一张抓拍到的人脸是否属于黑名单。虽然推断环节的计算量相比训练环节少,但仍然涉及大量的矩阵运算。在推断环节,除了使用CPU 或GPU 进行运算外,FPGA 以及ASIC 均能发挥重大作用。 下面介绍一下各种芯片在技术和应用上的特点: GPU:以英伟达为主,AMD 为辅。依靠通用及灵活的强大并行运算能力,广泛契合当前人工智能监督深度学习以及生成式对抗网络(GAN)/强化学习所需要的密集数据和多维并算处理需求,在3-5 年内GPU 仍然是深度学习市场的第一选择。 AI 将至的大趋势下,数据中心市场空间巨大。我们华领认为,深度学习上游训练端由GPU 主导并基本为英伟达所垄断。下游推理端虽可容纳CPU/FPGA/ASIC 等芯片,但竞争态势中英伟达依然占大头。 英伟达依靠Volta 构架升级以及广泛成熟的开发生态环境,自上而下的对训练、推理兼顾,扩张版图。以2016 年为例,全年服务器市场出货量约在1110 万台,在只有7%用于人工智能workload,其中约3.4%配置GPU,总量仅2.6 万台。所以全球新增服务器中GPU 的渗透仅为0.24%,在2020 年前全球服务器GPU渗透率将达4 倍以上增长。 FPGA(Field Programmable Gate Array,现场可编程门阵列):依靠电路级别的通用性,加上可编程性,适用于开发周期较短的IoT 产品、传感器数据预处理工作以及小型开发试错升级迭代阶段等。 FPGA 可灵活支持各类深度学习的计算任务,性能上根据百度的一项研究显示,对于大量的矩阵运算 GPU 远好于 FPGA,但是当处理小计算量大批次的实际计算时 FPGA 性能优于 GPU。另外 FPGA 有低延迟的特点,非常适合在推断环节支撑海量的用户实时计算请求(如语音云识别)。FPGA 厂商包括Xilinx、Altera(英特尔)、Lattice 及Microsemi。 ASIC(Application Specific Integrated Circuit,专用集成电路):细分市场需求确定后,以T

文档评论(0)

1亿VIP精品文档

相关文档