2024 AI专题:从模型视角看端侧AI,模型技术持续演进,交互体验有望升级.pptxVIP

2024 AI专题:从模型视角看端侧AI,模型技术持续演进,交互体验有望升级.pptx

  1. 1、本文档共55页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

Al专题·从模型视角看端侧Al

模型技术持续演进,交互体验有望升级

西南证券研究发展中心

海外研究团队

2024年7月

;

口基础的构建:模型实现高效压缩是端侧AI的第一步。模型尺寸变小、同时具备较好性能,是端侧AI

的前提。目前,在10B参数规模以下的模型中,7B尺寸占据主流,3B及以下小模型仍在探索,部分小模型性能正逐步接近更大参数模型,如谷歌Gemini-Nano模型在部分测试基准上接近Gemini-Pro、MetaLlama-3-8B模型表现可与Llama-2-70B匹敌。模型厂商为兼顾模型尺寸与性能,在算法优化上进行积极探索,在模型压缩技术、稀疏注意力机制、多头注意力变体等领域取得持续进展,帮助模型减少参数、降低存算需求,同时保持较好的性能,为端侧AI奠定小模型的基础。

口落地的关键:模型适配终端硬件是端侧AI的第二步。小语言模型(SLM)不完全等于端侧模型,在

模型实现高效压缩后,需要进一步与手机硬件进行适配,帮助小模型装进终端。从众多小模型论文中可以发现,当前主要存在内存、功耗、算力三大硬件瓶颈。其中,苹果在其论文《LLMinaflash》中指出,70亿半精度参数的语言模型,完全加载进终端需要超过14GB的DRAM空间;Meta

在其MobileLLM模型论文中指出,一个约有5000焦耳满电能量的iPhone,仅支持7B模型在10tokens/秒的AI生成速率下对话不足2小时。为解决以上问题,手机芯片厂商正加速推进AI芯片研发,在先进制程、内存容量及带宽、CPU和GPU性能、以及AI服务器上发力,手机品牌商也将配备更高性能的电池、散热元器件,提升整体终端硬件能力,更好地支持AI模型。

□体验的突破:模型助力人机交互是端侧AI的第三步。端侧模型通常能够支持用户完成AI初级任务,然而更丰富、更深度的交互体验需要UI模型、云端模型、以及系统级AI进行有力支撑。其中,UI模型可以提供手机UI界面理解的基础,云端模型能够帮助处理较为复杂的交互任务,系统级AI可以实现多种模型间的调用与协同。在AI时代下,模型的端侧意义不止于类似ChatGPT的聊天机器人软件而在于赋能手机系统和应用交互的系统级AI,其带来的交互体验将成为影响用户换机的核心。从当前的海外合作阵营来看,可分为“苹果+OpenAI”和“谷歌+高通+三星”两大阵营。未来,随着端侧模型、配套硬件、AI系统的持续发展,终端市场有望呈现更多可能。

□相关标的:苹果(AAPL.O)、三星电子(005930.KS)、高通(QCOM.O)、谷歌(GOOGL.O)等。

□风险提示:端侧AI技术进展不及预期风险;行业竞争加剧风险;应用开发不及预期风险等。

WWW.SWSC.C ;

2落地的关键:模型适配终端硬件是端侧AI的第二步;

Google

TPUv4,TPUv5e

Gemma-2基于

Gemma-1优化模型

具体细节;

Gemini-Nano致力

于在终端设备上运

行;GQA由谷歌

创新提出;

公司模型名称发布日期模型参数量(B);

模型测试基准Gemma-1-2.5BGemma-2-2.6BMistral-7BLLaMA-3-8BGemma-1-7BGemma-2-9B;

口专为设备部署而设计,擅长总结和阅读理解。2023年12月6日,谷歌发布Gemini系列自研大模型,

参数规模从大至小分别为Gemini-Ultra、Gemini-Pro、Gemini-Nano,其中Gemini-Nano模型包括两种版本,Nano-1参数规模为1.8B,Nano-2为3.25B,旨在分别针对低内存和高内存的设备。

Gemini-Nano-1和Nano-2模型与参数规模更大的Gemini-Pro模型对比来看:1)根据BoolQ基

准(主要用于衡量模型理解问题和回答问题的逻辑能力)得分,Gemini-Nano-1的准确率为71.6%性能是Gemini-Pro的81%,Gemini-Nano-2的准确率为79.3%,是Gemini-Pro的90%,更接近Gemini-Pro的性能;2)TydiQA(GoldP)基准涉及回答复杂问题的能力,Gemini-Nano-1和Gemini-Nano-2的准确率为68.9%和74.2%,分别是Gemini-Pro的85%和91%,性能差距较小。

Gemini-Nano-1和

文档评论(0)

gayl22 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档