2024腾讯云大数据年度干货合集-腾讯云.docx

2024腾讯云大数据年度干货合集-腾讯云.docx

  1. 1、本文档共402页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

页码:

页码:2/2

核心技术页码:

核心技术

页码:3/2

页码:4/223

RAG+Agent:基于腾讯云ES与混元大模

型构建专属AI助手

01

背景概述

随着数据智能技术的不断发展,以大语言模型(LLM)驱动的AIGC为代表的内容生成技术已经成为企业数据智能能力中不可或缺的一部分,但传统的内容生成技术存在信息更新不及时、垂直领域知识匮乏、模型幻觉等问题,如何推进大模型在各行业、各业务场景落地是各方普遍关注的问题,而检索增强生成(Retrieval-AugmentedGeneration,RAG)技术则为此提供了有效的解决方案,成为数据智能时代的一大趋势。

RAG是一种结合了检索和大语言模型内容生成的技术方案,它通过引用外部知识库,在用户输入Query时检索出知识,然后让模型基于可信的知识进行用户回答。RAG具有较高的可解释性和定制能力,可大幅降低大语言模型的幻觉,适用于问答系统、文档生成、智能助手等多种自然语言处理任务中。本文将通过介绍腾讯云ES一站式RAG方案,演示如何通过结合腾讯云ES与混元大模型,快速构建RAG应用。

页码:5/223

02

腾讯云ES一站式RAG方案

腾讯云ES是云端全托管海量数据检索分析服务,拥有高性能自研内核,集成X-Pack,支持通过自治索引、存算分离、集群巡检等特性轻松管理集群,也支持免运维、自动弹性、按需使用的Serverless模式。在自研内核方面,腾讯云ES依托腾讯内外部海量业务的运营经验,针对ES内核进行了成本、性能、稳定性、拓展性等方面的优化,是亚太地区开源贡献第一的团队,使用腾讯云ES您可以高效构建在线搜索、向量检索、日志分析、运维监控、智能问答等服务。

在RAG方面,腾讯云ES支持了一站式向量检索、文本+向量混合搜索、倒数排序融合、与大模型集成、GPU高性能推理、字段级别权限控制等能力,同时针对查询性能做了大量优化,有效的提升了数据检索效率。

页码:6/223

当然,作为国内公有云首个从自然语言处理、到向量生成/存储/检索、并与大模型集成的端到端一站式技术平台,腾讯云ES也作为核心参编单位参与了由信通院组织的RAG标准制定,同时成为首个通过RAG权威认证的企业。

03

AI助手构建

购买ES集群

1、登录腾讯云ES控制台:

/login?s_url=https%3A%2F%2Fconsole.cloud.t%2Fapi%2Fexplorer%3FProduct%3Dhunyuan%26Version%3D2023-09-01%26Action%3DChatCompletions(复制链接到浏览器打开)

2、点击「新建」

页码:7/223

3、产品类型选择为:通用版

页码:8/223

4、选择版本:计费模式为按量计费、ES版本为8.13.3、商业特性为白金版

5、ES节点配置,测试环境可选择为ES.S1(2核4G),节点数为2,磁盘为通用型SSD,磁盘容量为20GB

6、其余配置选择默认即可

登录Kibana

页码:9/223

访问Kibana,设置公网访问策略

页码:10/223

3、点击Kibana公网访问地址访问Kibana

部署embedding模型

集群购买完成后,前往Kibana部署Embedding模型、创建知识库索引与向量化管道

1、开启「节点出站访问」,仅开启数据节点即可,如有专用主节点,仅开启专用主节点即可。(该功能为白名单,请联系工单处理)注:如需上传自定义模型或第三方平台(如Huggingface)模型,可参考文档:

/elastic/eland(复制链接到浏览器打开)

2、登录Kibana之后,在左侧导航栏找到「MachineLearning」功能

页码:11/223

3、进入模型管理页面,并找到类型为「text_embedding」的模型

4、如为未下载状态,选中模型,并点击「Addtrainedmodel」,本次演示我们使用「.multilingual-e5-small_linux-x86_64」模型

页码:12/223

5

文档评论(0)

哈哈 + 关注
实名认证
内容提供者

嗨,朋友,我都会用最可爱的语言和最实用的内容,帮助你更好地理解和应对职场中的各种挑战!

1亿VIP精品文档

相关文档