马腾-Mooncake:面向长上下文的 KVCache 中心化推理优化方案.pdfVIP

马腾-Mooncake:面向长上下文的 KVCache 中心化推理优化方案.pdf

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

演讲人:马腾

01

02

03

04

05

06Mooncake项目未来规划

01

算法-Transformerisallweneed?

内部所有的算子均为

GEMM或BMM,最大化计

数据–BigDataisEverywhere算强度和并行度智能–AIBecomeEverywhereToo

数字化进程的推进使得随着人工智能的发展,

采集和积累的数据前所越来越多的软件基于AI

未有的增多技术进行改造

硬件–Huang’sLawTakeOver

以NVIDIA为代表的GPU厂商通过提

供高并发的稠密张量计算替代传统

CPU厂商成为算力的主要提供商,从

而进一步延续FLOPSperWatt的增速

2024年:Llama3-405B=Dense模型+SFT+8k上下文(后扩展至

128k)

2025年:Deepseek-671B=MoE模型+RL+128k上下文

上下文长

变化:模型规模模型结构训练方法

影响:更多资源部署方式训推一体kvcache

DataSource:

SimilarWeb

2024年3月Kimi凭借长文本处理能力成为最主2025年1月DeepSeek凭借推理能力快速晋

要的大模型服务之一升全球最知名的大模型服务之一

更多数据+更大模型+更长上下文窗口=更高智能

全新模型结构+更多资源需求+更低使用成本+更高性能+更安全可信部署=更高技术挑战

DataSource:

SimilarWeb

2024年3月Kimi凭借长文本处理能力成为最主2025年1月DeepSeek凭借推理能力快速晋

要的大模型服务之一升全球最知名的大模型服务之一

阶段核心指标优化目标举例

预填充阶段TTFT最小化首次响应延迟P90TTFT≤0.4秒(90%请求需满足)

解码阶段TBT/TPOT平滑生成速度,减少波动用户每秒可读40词(快于人类阅读速度)

整体推理框架TPS单位时间内处理的token数量

文档评论(0)

150****8957 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档