- 1、本文档共14页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
大模型Agent核心:MCP从入门到实践
前言
最近,一款名为Manus 的AI工具在AI圈炸了锅。它不仅能自主完成旅行规划、股票分析,甚至能
生成3D模型设计方案,号称“AI界的全能选手”。而这一切的背后,离不开一个关键的技术突破
——模型上下文协议(MCP)
入门
1. 什么是MCP(Model Context Protocol)
大模型MCP(Model Context Protocol,模型上下文协议)是一种由Claude母公司Anthropic于
2024年11月底推出的开放标准,旨在统一大型语言模型(LLM)与外部数据源和工具之间的通信
协议 。它可以被视为AI应用程序的“USB-C接口”,为应用程序向大语言模型提供上下文的方式提
供了标准化方案 。
(图:NorahSakal)
MCP的核心目标是解决LLM应用与数据源连接的难题,支持通过统一的客户端-服务器架构访问本
地资源(如浏览器、数据库、文件系统、API等)或远程资源 。它不仅标准化了工具的开发和接
入过程,还优化了在应用层的执行流程 。
(图:技术爬爬虾)
此外,MCP在数据安全方面采取了一系列措施,例如资源控制、数据隐私保护等,确保在双向交
互过程中数据的安全性 。通过MCP,开发者可以更轻松地将AI智能体与各种数据源集成,从而提
升开发效率和应用灵活性 。
2. 总体架构
MCP的核心遵循客户端-服务器架构,其中主机应用程序可以连接到多个服务器:
(图:modelcontextprotocol)
MCP 主机:希望通过 MCP 访问数据的程序,例如 Claude Desktop、IDE 或 AI 工具
MCP 客户端:与服务器保持1:1 连接的协议客户端
MCP 服务器:轻量级程序,每个程序都通过标准化模型上下文协议公开特定功能
本地数据源:MCP服务器可以安全访问的您的计算机文件、数据库和服务
远程服务: MCP 服务器可通过互联网(例如通过 API)连接到的外部系统
基于MCP的Agent有以下局限性:
(1)暂不支持复杂调用: 例如循环、if-else等结构目前尚未支持。
(2)不支持内存存储:遇到大变量时,可能会出现效果和效率方面的问题。
(3)需要本地启动多个服务器:依赖于本地环境,并需解决兼容性问题。
MCP实战
1. 环境及工具准备
UV: Python集成环境工具,安装方式:https://docs.astral.sh/uv/getting-
started/installation/
NPX: Node js工具,下载地址: /zh-cn/download
CherryStudio: 大模型集成工具,最新的版本开始支持MCP Sever功能 下载地址:
/cherrystudio/download
MCP Server: 实战所需的mcp server 下载地址:
/modelcontextprotocol/servers
注:请准备以上工具并自行安装,这里我就不在演示了
2. 配置大模型以及MCP Server
2.1. 检查是否支持MCP
打开CherryStudio检查是否支持MCP,按照步骤你可以看如图所示:
1.点击设置
2.选择MCP服务器
3.忽略上面的两个提示
2.2.配置大模型提供商
如果你本地搭建了大模型,请使用Qwen的模型,它支持FunctionCalling(函数调用),目
前DeepseekR1蒸馏模型不支持FunctionCalling。
如果你本地没有大模型,可以参考我这篇文章:《Deepseek服务不可用;无需显卡,带
你免费即刻拥有私人大模型服务》里面有相关步骤,可以设置阿里云百炼的Key,就可
以免费使用相应的大模型
接下来开启大模型的FunctionCalling
本地
文档评论(0)