- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
Xinference:大模型时代的分布式推理平台秦续业未来速度CEO
LLM推理概述AttentionisAllYouNeedGPT架构EmbeddingDecoderSampling简化成三个步骤
LLM推理概述EmbeddingDecoderSamplingTokenEmbedding将tokenid转成词向量PositionalEmbedding将位置信息加到编码中
LLM推理概述EmbeddingDecoderSampling计算量最大的一个步骤,主要是
LLM推理概述EmbeddingDecoderS
LLM推理概述EmbeddingDecoderSamplingGreedysearchBeamsearch…Top-KTop-P
LLM优化技术Optimizations:KVC
LLM优化技术Optimizations:PagedA
LLM优化技术Optimizations:ContinuousB
LLM优化技术Optimizations:SpeculativeD
LLM推理后端高吞吐最好兼容性工作在端侧
LLM模型下载
LLM推理
LLM推理生产部署个人部署PromptTemplatesModelCachingUtilsModelManagementRESTfulAPIResourceManagementThird-partyIntegrationM
Xinferenceisallyourneed多模型:汇集约80种开源模型,如GLM4、百川、Llama3、qwen2,还可以自由扩展自定义模型多硬件:支持NVIDIA、Intel多种硬件平台,按需选择高性能:使用多backend和投机采样等优化技术,大幅提升吞吐量,降低推理延迟低门槛:模型即服务,支持本地/云端部署等多种部署模式,降低开发和运维成本;支持从modelscope、huggingface或OpenCSG下载模型
Xinferenceisallyour
XinferenceisallyourneedDify中唯一一个支持所有特性的模型供应商
模型√√√√√
D
PythonClientRESTfulAPIResponseOpenAISDK
第三方集成(langchain、llama_index、Dify、FastGPT、chatchat…)
模型和资源管理XinferenceserverApplicationsAPIrequestWebUIrequestrequestGPUGPUGPUCPUllamaResourcePoolllamachatglmgte-largechatglmvllmtensorRT-
ScalabilityScaleUp单机多卡(1张3090与2张3090的数据对比),线性增长,throughput随着卡的增加而线性增长,latency随着卡的增加线性降低
ScalabilityScaleOut多机多卡(一台A10G显卡机器与两台A10G显卡机器),throughput随着机器的增加而线性增长,latency随着机器的增加线性降低。
Xinference企业版
案例1,NVIDIA和昇腾混合部署某券商Xinference提供了异构调度能力,将各种类型硬件纳管Xinference屏蔽了底层硬件的差异用户无需感知硬件不同,GPUvs.NPU透明的优化技术,对NVIDIA和昇腾使用不同的优化技术各种常见AI开发工具直接对接LangchainDify
难点和优势NVIDIA拥有了相对完备的生态,国产适配有相当大的难度Xinference对底层算子进行了适配,利用continuousbatching,整体吞吐提升3倍。得益于Xinference底层的Xoscar异构算力调度,用户对NVIDIA还是国产芯片是透明的用户可以更加专注在业务侧
案例2,构建企业私有化的AI平台Xinference作为AI基础平台大语言模型包括多模态Embedding、rerank模型企业旧模型模型使能平台知识库Agent提示词管理等其他功能
联系我们GitHub:/xorbitsai/inferenceDocumentation:https://inference.readthedocs.io/en/latest/
麦思博(msup)有限公司是一家面向技术型企业的培训咨询机构,携手2000余位中外客座导师,服务于技术团队的能力提升、软件工程效能和产品创新迭代,超过3000余家企业续约学习,是科技领域占
您可能关注的文档
最近下载
- xsb-1显示仪表说明书.docx VIP
- 乡村振兴乡村旅游-浙江省乡村旅游设计方案.pdf VIP
- DELTA台达VFD-ME300精巧简易型向量控制变频器使用手册调试说明.pdf
- 眼附属器的解剖ppt参考课件.ppt
- 土壤及地下水采样实施实施方案gp.docx
- 小学科学新教科版三年级上册全册思维导图(共三个单元)(2025秋).doc VIP
- 1415地面流水地质作用.pptx VIP
- Unit1GrowingUpUnderstandingideasTheageofmajority课件高中英语选择性.pptx VIP
- 写文章的软件4篇.docx VIP
- GB 50026-2020 工程测量标准.docx
原创力文档


文档评论(0)