基于神经网络的人工智能技术在移动终端上的应用分析.docxVIP

基于神经网络的人工智能技术在移动终端上的应用分析.docx

  1. 1、本文档共7页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

?

?

基于神经网络的人工智能技术在移动终端上的应用分析

?

?

摘要:人工智能技术在移动终端的应用呈现出飞速发展的态势。基于神经网络的人工智能技术主要依靠构建人工智能的总体框架和网络模型的运行推理技术,来实现科学研究的实践化。本文将通过对移动终端上的人工智能技术应用分析,进一步深化研究移动智能终端的人工智能技术,从而提出关于未来终端人工智能技术发展的预测。

关键词:神经网络;人工智能;移动终端

一、人工智能技术在移动终端上的应用

随着智能手机、平板电脑、运动手环等移动终端在人类日常生活中的普及使用,人工智能技术已经在人类的日常生活中占据着非常重要的地位。AI技术能使各种设备愈发便捷化、人性化,主要是基于神经网络来实现的。相较于传统的遵循特定计算逻辑和规则的应用编程,神经网络可以通过程序员提供的样本进行自主选择学习、自动执行任务。多层次构成的神经网络,除了输入层和输出层,还包括隐藏层。每一层次的神经元都具备将抽象复杂的数据表示法进行简略化理解、操作的能力。

尽管神经网络运行的原理相同,但是人工智能技术在移动终端上的应用形式却存在一定差异。其中,较为简单的一种是端云结合的AI技术。移动客户端作为信息采集的据点,通过网络将收集到的信息数据传递至云端,经过云端的AI处理后再反馈给客户。这种形式主要适用于语音助手、在线翻译等对相应速度要求不高的功能服务。另外,还有一种是在移动客户端直接进行操作的AI技术。这样不仅能够使客户端的响应时间得到有效缩减,而且还能提高其使用的安全可靠性,更好地保护用户隐私的相关数据。同时,这种直接进行人工智能处理的技术还能不受网络环境的限制,在无网络信号覆盖的区域中依然支持使用。当然,如果想较为完美地发挥这些优势,还需要满足移动终端关于算力和功耗的一系列要求。

二、移动终端人工智能的总体构架

移动终端人工智能技术的正常运行,不可缺少端侧人工智能计算框架的支持。目前,端侧人工智能计算框架主要是基于神经网络进行向上、向下的推理计算。向上是通过UI用户界面向用户提供功能逻辑、数据储存等服务。向下则是通过调用人工智能计算框架进行AI任务处理,使数据得到获取、传递以及结果反馈。一般来讲,移动终端的人工智能计算构架主要包括通用构架和专用构架。通用构架指TensorflowLite、Caffe2等,它们能够支持Android、iOS多操作系统、多芯片平台的人工智能计算构架。专用架构指SNPE、HiAI等,这些人工智能计算构架仅支持部分芯片平台上的运行。

终端人工智能技术的推理计算,最终是要在硬件上得到落实。移动终端的人工智能技术在为人类的日常生活提供便利的前提下,也对终端的计算芯片的算力有着高标准的要求。目前,比较常见的硬件资源包括CPU、GPU、DSP、NPU等。其中,CPU构架中大比重的控制器、寄存器等部件能够带动指令的准确执行、函数的调用,但适应于计算的逻辑单元较少,处理数据的能力较弱。相比而言,GPU能够提供的算力更高,用于图像处理的逻辑单元更丰富,但是算力依旧不能紧跟移动终端人工智能技术的脚步。为了更进一步满足移动终端对AI技术算力的要求,专门针对人工智能计算的AI硬件加速单元NPU、DSP等出现在了大众视野。通过采用程序和数据分开的结构,DSP芯片利用专门的硬件乘法器下达指令,在虚拟或增强现实、处理图像或视频、计算视觉等计算负载当中发挥重要作用。同时,各种神经网络模型的算法在这里得到了极速版实现,高通骁龙芯片的HVX矢量扩展技术(DSP)和张量加速器HTA就是很好的例子。

三、神經网络推理的四步骤

基于神经网络的人工智能技术在终端的应用,主要是通过推理计算实现的。神经网络的推理是利用模型进行数据的运转、预测的过程,执行一般需要四步骤:神经网络模型的转换与加载、数据转换、神经网络模型的运行推断、推理结果输出。

(一)神经网络模型的转换与加载

进行神经网络推理的第一步,就是关于神经网络模型的选择和使用。神经网络模型作为一种数据结构,是通过训练学习网络的逻辑和知识,整理计算所采集的数据,从而完成特定任务、解决相应问题。神经网络模型在首次进行人工智能操作前,需要搭建成型并进行数据训练,训练的精准程度达到推理应用的要求后才能付诸实践。在模型训练的过程中,会形成模型结构和参数两部分。同一个神经网络模型经过数据训练后,可以按照参数转换成不同的预训练模型,从而识别不同的目标对象,对不同的人工智能任务进行不同的处理操作。当然,预训练神经网络模型一般是由上一节中提及的人工智能计算框架生成,不同的端侧人工智能计算框架对应支持不同的神经网络模型格式。通过人工智能计算框架进行模型的转换,转换成各框架支持的格式之后,移动终端上的预训练模型的部署工作才能开展。比如TensorFlow模型是从TensorFlowLite架构中应运

文档评论(0)

136****0662 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档