大模型时代的分布式推理平台.pptxVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

Xinference:大模型时代的分布式推理平台秦续业未来速度CEO

LLM推理概述AttentionisAllYouNeedGPT架构EmbeddingDecoderSampling简化成三个步骤

LLM推理概述EmbeddingDecoderSamplingTokenEmbedding将tokenid转成词向量PositionalEmbedding将位置信息加到编码中

LLM推理概述EmbeddingDecoderSampling计算量最大的一个步骤,主要是

LLM推理概述EmbeddingDecoderS

LLM推理概述EmbeddingDecoderSamplingGreedysearchBeamsearch…Top-KTop-P

LLM优化技术Optimizations:KVC

LLM优化技术Optimizations:PagedA

LLM优化技术Optimizations:ContinuousB

LLM优化技术Optimizations:SpeculativeD

LLM推理后端高吞吐最好兼容性工作在端侧

LLM模型下载

LLM推理

LLM推理生产部署个人部署PromptTemplatesModelCachingUtilsModelManagementRESTfulAPIResourceManagementThird-partyIntegrationM

Xinferenceisallyourneed多模型:汇集约80种开源模型,如GLM4、百川、Llama3、qwen2,还可以自由扩展自定义模型多硬件:支持NVIDIA、Intel多种硬件平台,按需选择高性能:使用多backend和投机采样等优化技术,大幅提升吞吐量,降低推理延迟低门槛:模型即服务,支持本地/云端部署等多种部署模式,降低开发和运维成本;支持从modelscope、huggingface或OpenCSG下载模型

Xinferenceisallyour

XinferenceisallyourneedDify中唯一一个支持所有特性的模型供应商

模型√√√√√

D

PythonClientRESTfulAPIResponseOpenAISDK

第三方集成(langchain、llama_index、Dify、FastGPT、chatchat…)

模型和资源管理XinferenceserverApplicationsAPIrequestWebUIrequestrequestGPUGPUGPUCPUllamaResourcePoolllamachatglmgte-largechatglmvllmtensorRT-

ScalabilityScaleUp单机多卡(1张3090与2张3090的数据对比),线性增长,throughput随着卡的增加而线性增长,latency随着卡的增加线性降低

ScalabilityScaleOut多机多卡(一台A10G显卡机器与两台A10G显卡机器),throughput随着机器的增加而线性增长,latency随着机器的增加线性降低。

Xinference企业版

案例1,NVIDIA和昇腾混合部署某券商Xinference提供了异构调度能力,将各种类型硬件纳管Xinference屏蔽了底层硬件的差异用户无需感知硬件不同,GPUvs.NPU透明的优化技术,对NVIDIA和昇腾使用不同的优化技术各种常见AI开发工具直接对接LangchainDify

难点和优势NVIDIA拥有了相对完备的生态,国产适配有相当大的难度Xinference对底层算子进行了适配,利用continuousbatching,整体吞吐提升3倍。得益于Xinference底层的Xoscar异构算力调度,用户对NVIDIA还是国产芯片是透明的用户可以更加专注在业务侧

案例2,构建企业私有化的AI平台Xinference作为AI基础平台大语言模型包括多模态Embedding、rerank模型企业旧模型模型使能平台知识库Agent提示词管理等其他功能

联系我们GitHub:/xorbitsai/inferenceDocumentation:https://inference.readthedocs.io/en/latest/

麦思博(msup)有限公司是一家面向技术型企业的培训咨询机构,携手2000余位中外客座导师,服务于技术团队的能力提升、软件工程效能和产品创新迭代,超过3000余家企业续约学习,是科技领域占

文档评论(0)

优选文档 + 关注
实名认证
文档贡献者

专注于发布优质文档,喜欢的可以关注一下哦~

1亿VIP精品文档

相关文档