计算机行业国内顶尖大模型巡礼MiniMax-24042319页.pdfVIP

计算机行业国内顶尖大模型巡礼MiniMax-24042319页.pdf

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

证券研究报告|行业深度

2024年04月23日

计算机

国内顶尖大模型巡礼:MiniMax

全栈自研大模型,打造全球领先AGI生态。1)MiniMax成立于2021年12月,是增持(维持)

一家通用人工智能科技公司,致力于与用户共创智能。MiniMax自主研发了不同模

态的通用大模型,包括万亿参数的MoE文本大模型、语音大模型以及视觉大模型。

基于不同模态通用大模型,公司已推出多款AI原生应用。公司创始人为商汤前副总行业走势

裁闫俊杰,核心团队成员技术背景强大。截至2024年初,公司估值已超过25亿美

金,新一轮为阿里巴巴领投,验证其技术地位。2)2024年1月,MiniMax全量发

布大语言模型abab6,为国内首个数千亿参数级别MoE大语言模型。同年4月,计算机沪深300

16%

MiniMax推出万亿参数MoE大语言模型abab6.5。根据公司官方微信公众号,在各

类核心能力测试中,abab6.5已与GPT4、Claude3Opus、Gemini1.5Pro等全球顶0%

尖大语言模型接近。3)产品端,MiniMax在B端C端广泛布局。2C而言,基于不

-16%

同模态的通用大模型,MiniMax推出生产力工具海螺AI、沉浸式AI内容社区星野等

原生应用;2B而言,MiniMax开放平台为企业和开发者提供安全、灵活、可靠的API-32%

服务,助力快速搭建AI应用。-48%

2023-042023-082023-12

技术前瞻全面转向MoE,已超越GPT3.5、追赶GPT4。1)自2022年底ChatGPT

推出以来,大模型已成为全球科技必争之地。目前,业内大模型主要包括两种流派,

Dense与MoE。在传统的Dense模型中,所有的参数都会对所有的输入数据进行处

理。而在MoE模型中,用户可以仅针对整个系统的某些特定部分执行动态激活计算。作者

2)相比Dense架构,MoE在相同计算资源下,训练速度更快,模型上限更高,是分析师刘高畅

世界顶尖模型的主流选择。①在训练阶段,MoE能够在远少于Dense模型所需的计

执业证书编号:S0680518090001

算资源下进行有效的预训练。这意味着在相同的计算预算条件下,用户可以显著扩

大模型或数据集的规模。②在微调阶段,MoE模型可能从指令式微调中获益更多,邮箱:liugaochang@

高于Dense模型。③在推理阶段,尽管对内存需求较高,MoE模型的推理速度远快分析师陈芷婧

于具有相同数量参数的Dense模型。3)目前,MoE已成为业内共识,GPT4、Gemini、执业证书编号:S0680523080001

Mixtral等全球一流模型均已采用MoE架构。而MiniMax为了进一步提升模型在复杂邮箱:chenzhijing3659@

任务下的效果,从2023年6月开始全面转向MoE模型,并于2024年4月全量发相关研究

布为国内首个万亿参数级别MoE大语言模型abab6.5,体现了其深刻的技术前瞻性

与战略执行能力。

文档评论(0)

hw + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档