- 1、本文档共30页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
GLake:大模型时代显存+传
输管理与优化
AICon全球人工智能开发与应用大会主要面向各行业对人工智能和大模型感兴趣的资深工程师、产品经理、数据分析师,会议聚焦大模型训练与推理、AIagent、RAG、多模态大模型等热门方向,会议不仅安排了精彩的演讲,还策划了包括闭门会议、圆桌交流、互动展区等多种社交活动,一方面为参会人员提供宝贵的交流学习、拓展人脉的机会,另一方面也为相关企业和机构提供一个展示自身实力和成果的舞台。
蚂蚁集团-基础智能-AIInfra
赵军平
2024.5
提纲
•背景与技术挑战
•显存墙、传输墙
•GLake介绍:显存与传输优化
•训练场景
AICon全球人工智能开发与应用大会主要面向各行业对人工智能和大模型感兴趣的资深工程师、产品经理、数据分析师,会议聚焦大模型训练与推理、AIagent、RAG、多模态大模型等热门方向,会议不仅安排了精彩的演讲,还策划了包括闭门会议、圆桌交流、互动展区等多种社交活动,一方面为参会人员提供宝贵的交流学习、拓展人脉的机会,另一方面也为相关企业和机构提供一个展示自身实力和成果的舞台。
•推理场景
•其他:混部、serverless
•总结:开源
自我介绍
•赵军平,蚂蚁异构计算与推理引擎负责人
•CCFHPC和存储专委委员,~200中/美技术专利
•异构加速,虚拟化,K8S,推理优化,文件系统,企业级存储-保护等
•“数据密集型应用系统设计”译者
•2007~2019:EMC、DellEMC,Start-up
AICon全球人工智能开发与应用大会主要面向各行业对人工智能和大模型感兴趣的资深工程师、产品经理、数据分析师,会议聚焦大模型训练与推理、AIagent、RAG、多模态大模型等热门方向,会议不仅安排了精彩的演讲,还策划了包括闭门会议、圆桌交流、互动展区等多种社交活动,一方面为参会人员提供宝贵的交流学习、拓展人脉的机会,另一方面也为相关企业和机构提供一个展示自身实力和成果的舞台。
LLM技术挑战1:显存墙
•显存容量、访存带宽(特别是推理小batch场景)
AICon全球人工智能开发与应用大会主要面向各行业对人工智能和大模型感兴趣的资深工程师、产品经理、数据分析师,会议聚焦大模型训练与推理、AIagent、RAG、多模态大模型等热门方向,会议不仅安排了精彩的演讲,还策划了包括闭门会议、圆桌交流、互动展区等多种社交活动,一方面为参会人员提供宝贵的交流学习、拓展人脉的机会,另一方面也为相关企业和机构提供一个展示自身实力和成果的舞台。
单卡算力vs.访存带宽
模型参数量vs.单卡显存容量
Llama2-70B推理为例
•权重与KVcache的显存消耗分析(假定FP16未优化)
2机A100
4机L40/20
2机A100
您可能关注的文档
- AI Agent 在企业生产中的技术实践-2024年全球人工智能与大模型开发与应用.pdf
- AI for Science 新范式赋能电池研发-2024年全球人工智能与大模型开发与应用.pdf
- Database Copilot 在数据库领域的落地-2024年全球人工智能与大模型开发与应用.pdf
- LLM 在 BI 场景的应用思路探索-2024年全球人工智能与大模型开发与应用.pdf
- Long-Context vs RAG 谁将主导未来?-2024年全球人工智能与大模型开发与应用.pdf
- OpenSearch RAG 应用实践-2024年全球人工智能与大模型开发与应用.pdf
- PPIO 模型平台出海实战,跨地域业务扩展中的技术优化之道-2024年全球人工智能与大模型开发与应用.pdf
- RAG 系统中的关键技术:从 Embedding 到 Reranker-2024年全球人工智能与大模型开发与应用.pdf
- The Next Wave:Explore the Strategy on Generative AI-2024年全球人工智能与大模型开发与应用.pdf
- 从互联网到 AI:云产业的重构和演进-2024年全球人工智能与大模型开发与应用.pdf
文档评论(0)