- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
基于同态加密的联邦学习隐私保护方案研究
摘要
联邦学习是一种机器学习的分布式学习方法,其目标是通过在多个本地数据
持有者之间进行模型训练,而不是集中式地在一个中央位置汇总所有数据,以解决
一系列问题。联邦学习致力于通过分布式学习的方式解决集中式学习中的隐私、通
信和数据孤岛等问题,从而推动更加安全、高效和合作的机器学习应用。因此引起
了众多学者的关注,随后出现了很多梯度聚合方案以保证隐私安全。联邦学习主要
通过差分隐私、安全多方计算以及同态加密等技术保证其数据及隐私安全性。通过
这些技术的进步,联邦学习在保护数据隐私的同时,也在保证模型的学习效果和性
能。论文的主要工作如下:
1
()提出了一种将传统的聚合服务器按功能拆分为梯度聚合服务器和梯度更
新服务器,梯度聚合服务器专门负责梯度聚合,而梯度更新服务器则负责更新全局
模型及全局参数等任务的联邦学习隐私保护方案。方案的实际可行性主要取决于
聚合环节的安全算法和通信开销。本文结合了加法同态和稀疏化方法,既保证了安
全性,又显著降低了通信开销,提升了方案的可行性。在采用同态加密方案时,通
信开销通常会增加。但在通信开销部分降低的情况下,安全等级也会相应提高,并
且不会向其他服务器泄露信息。最后,在使用对称加密的情况下,本方案相比其他
方案具有更好的通信开销和安全优势。在此基础上,通信开销可以与基于差分隐私
的方案相媲美,并且安全性大大提高。
2CKKS
()提出了一种基于同态加密方案的加法同态部分与离散高斯分布误
差相结合的联邦学习隐私保护方案。该方案基于传统的联邦学习模型,并且依赖离
散高斯分布的特性。在多组离散高斯分布的数据中,每组对应位置的数据也服从离
散高斯分布。CKKS编码使得训练之后的浮点型权重数据可以编码到分圆多项式
CKKS
中。同态加密使得聚合服务器可以直接对密文数据在环上进行加法运算,即
聚合操作。最后,依赖离散高斯分布的特性使得每个客户端使用公钥加密后的梯度
无法使用私钥直接解密成功,但在聚合操作后可以使用私钥解密成功。聚合后解密
使得用户的数据更加安全可靠,促进了合作发展。该方案保证了客户端的隐私安全,
并且使通信开销在一定程度上低于其他同态加密方案。
关键词:联邦学习,隐私保护,同态加密,格基密码,安全聚合
ResearchonFederatedLearningPrivacyProtectionScheme
BasedonHomomorphicEncryption
ABSTRACT
Federatedlearningisadistributedlearningmethodinmachinelearning,aimingto
conductmodeltrainingacrossmultiplelocaldataholdersinsteadofcentralizingalldata
inonecentrallocation.Thisapproachaddressesarangeofissues,includingprivacy
concerns,communicationconstraints,anddatasilosinherentincentralizedlearning,
therebypromotingsafer,moreefficient,andcollaborativemachinelearningapplications.
Consequently,ithasgarneredsignificantattentionfromscholars,leadingtothe
developmentofvariousgradientaggregationschemestoensureprivacypreservation.
Federatedlearningprimarilyreliesont
文档评论(0)