代理隐私保护机器学习.pdfVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

代理隐私保护机器学习

MengyuZhang,ZhuotaoLiu,JingwenHuang,XuanqiLiu

InspiringGroup@TsinghuaUniversity

Abstract

隐私保护机器学习(PPML)对于确保人工智能中的数据隐私至关重要。在

过去几年中,社区提出了多种可证明安全的PPML方案,这些方案依赖于

各种密码学原语。然而,在涉及具有数十亿参数的大语言模型(LLMs)时,

本PPML的效率远非令人满意。例如,最新的保密LLM推理解决方案相比明

译文推理性能至少慢了10,000倍。当上下文长度增加时,这种性能差距甚至

中更大。

在这篇立场文件中,我们提出了一种名为Agentic-PPML的新框架,以使LLM

1

v中的PPML变得实用。我们的关键见解是使用通用的LLM来理解意图,并

6将加密安全的推理委托给在垂直领域训练的专业模型。通过模块化地分离

3

8语言意图解析(这通常涉及很少或没有敏感信息)与隐私关键计算,Agentic-

2PPML完全消除了需要LLM处理加密提示的需求,从而实现了以保护隐私

0

.为中心的服务的实际部署。

8

0

5

21介绍

:

v

i大型语言模型(LLMs)的近期进展从根本上改变了用户与计算工具和数据服务交互的方式。

x

r通过整合结构化协调协议,如模型上下文协议(MCP)[1],LLMs现在可以作为智能编排者

a

运行,能够代表用户调用外部模型或API。这使得用户无需直接与底层系统交互即可无缝访

问专业功能。该框架的一个关键优势是提高了易用性:用户不必手动选择或配置远程模型提

供方,只需以自然语言表达其意图即可。LLM解释请求,识别适当的MCP服务器,并自动

制定结构化查询以促进交互。

然而,在实践中,大多数MCP服务器由第三方托管,这引发了对敏感用户数据和专有模型

内容可能泄露的严重担忧。在这样的设置中确保隐私需要将加密机制仔细整合到MCP工作

流程中——这一任务既带来了技术上的挑战,也带来了架构上的挑战。从技术角度来看,我

们的目标是在保持隐私的同时支持高效计算。一般来说,在计算效率与强隐私保证之间存在

着根本性的紧张关系,因为加密协议通常会带来显著的开销。在架构方面,挑战在于将这些

协议嵌入到MCP定义的模块化、无状态交互模式中,其中LLM编排器必须协调相互不信任

方之间的加密数据流,同时不会打破抽象边界或暴露敏感内容。这需要新的抽象概念,允许

像调用任何其他API一样调用加密协议,同时尊重所有参与者的安全模型。

为了解决上述挑战,我们提出了Agentic-PPML,这是一个用于大型语言模型(LLMs)的隐

私保护推理的新框架。该框架利用一个通用的LLM来执行意图理解,并通过模型上下文协

Apositionpaper.Underactivedevelopment.

zhuotaoliu@

Prepri

您可能关注的文档

文档评论(0)

专业Latex文档翻译 + 关注
实名认证
服务提供商

专业Latex文档翻译,完整保持文档排版,完美处理文档中的数学公式和图表等元素,并提供 arXiv Latex 论文中文翻译。

1亿VIP精品文档

相关文档