- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
国际嵌入式系统创新论坛
面向机器人技术的嵌入式AI
开发与展望
09:18
机器人与嵌入式AI
09:18
机器人嵌入式AI技术
嵌入式AI芯片
嵌入式AI计算框架
OpenCL:由 Khronos Group维护的开放标准,是一个适用于由CPU、GPU
、DSP、FPGA等硬件加速器组成的异构计算平台的变成框架,包括计算
设备编程语言(基于C/C++ ),以及控制这些计算设备执行的API 。AMD
、Nvidia、Intel等厂家的主流GPU都提供了OpenCL实现。
SYCL :基于C++17 的高级单源码异构计算专用语言。相比于OpenCL设备
端核函数需要使用单独的语言进行独立开发,SYCL利用C++特性实现单一
语言单一源码完成主机端、设备端开发的统一,开发更为简单高效。
SYCL早期基于OpenCL和SPIR实现,新版本对后端进行抽象,以支持除了
这两种以外的异构计算平台。
OpenMP:共享内存并行计算框架(例如多核、多CPU )。
CUDA:显卡厂商NVIDIA推出的运算平台,支持其GPU芯片的计算库。
09:18
面向机器人嵌入式AI应用
边缘计算算法设计‐深度学习为例
(1)设计轻量化卷积神经网络
对一些部署在PC机的结构例如VGG ,Inception V1-V4系列和ResNet等进行简化,从
而能把深度学习网络直接部署在嵌入式平台上,常见轻量级网络MobileNet、SqueezeNet
和ShuffleNet等。
(2)模型的二值化
量化过程就是对数据用低精度
的方式保存和计算,如从32位浮点
数转换为8位的整数。
(3)模型的剪枝
通过剪枝使网络变得稀疏,需
要存储的参数量变少,降低整体模
型的复杂度。
(4)知识精炼
使用轻量的紧凑小网络在模型训
练的时候加入在原数据集上已经训练
并收敛的大网络作为外部的监督信息
,使小网络能够拟合大网络,最终学
习到与大网络类似的函数映射关系。
推理框架设计‐深度学习为例
卷积神经网络推理时间分解
MobileNet V1模型各类网络层推理时间占比
1×1标准卷积的优化
09:18
内存池
轻量推理模式和内存池的实现
轻量推理模式:在推理过程中根
据有向无环计算图的依赖关系释放掉
以后不会再使用的特征图Blob,可以
减少整个推理过程中的内存占用。但
是其频繁的内存分配和释放操作会带
来性能上的损耗。
针对神经网络的前向推理过程设
计了一个内存池来解决这个问题。 已分配内存 未分配内存 内存池中的
的Blob 的Blob 已分配内存块
将要运行
网络层
的网络层
09:18
智能芯片设计‐机器人高速控制
机器人芯片
通用接口 机器人专
用接口
总线
RISC-V内核
原创力文档


文档评论(0)