- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
纵向联邦学习算法的优化与应用
摘要
数据孤岛是企业或组织内部不同部门、系统或应用程序之间存在的信息隔离
现象。这些不同系统中孤立的数据集由于安全和隐私保护的要求而无法有效地与
其他数据源整合或共享,从而限制了数据分析的广度和深度。联邦学习是解决数据
孤岛问题的一种主要技术手段,其可在保证用户数据不出本地的前提下完成合作
建模。纵向联邦学习作为联邦学习的一种,允许多个参与者在保持数据隐私的前提
下,提供各自的数据特征来共同训练模型。然而,其在处理效率和数据安全性方面
仍面临问题。鉴于此,本文旨在探索并优化纵向联邦学习算法在深度神经网络中的
应用,尤其聚焦于硬件加速技术的融合与创新,对以下内容进行了研究以应对这些
问题:
(1)面向隐私保护的纵向联邦深度神经网络方法。本文研究了联邦深度神经
网络方法和同态加密算法,在普通的中心化深度神经网络和联邦学习的基础上,通
过引入同态加密算法改进深度神经网络的传播过程,提出了一种无需第三方的纵
向联邦深度神经网络方法,提高了参与方的数据安全性,使得模型效果接近于中心
化深度神经网络的模型效果。
(2)基于可重构芯片的同态加密硬件加速。本文集中研究了可重构芯片技术
的同态加密算法,通过设计专门的硬件加速结构,基于可重构芯片实现同态加密算
法,将联邦深度神经网络的同态加密计算从CPU中卸载到了专用硬件中,降低了
CPU运算负载,减少了CPU算力要求,并且,还可通过硬件并行方式对加解密运
算进行加速,从而提高建模速度。
(3)基于硬件加速的联邦深度学习一体机。本文基于以上的纵向联邦深度神
经网络方法和基于可重构芯片的同态加密硬件加速技术,设计实现了基于硬件加
速的联邦深度学习一体机。实现过程中结合Spark和硬件虚拟化设计软硬件集群计
算架构,解决了海量数据训练的硬件加速问题。该一体机的开发不仅体现了硬件与
软件协同工作在提升联邦学习效率方面的潜力,也为联邦学习的实际应用提供了
新的可能性。
关键词纵向联邦学习;深度神经网络;同态加密;可重构芯片;软硬一体机
-I-
OptimizationandApplicationofVerticalFederated
LearningAlgorithms
Abstract
Datasilosrefertothephenomenonofinformationisolationthatexistsbetween
differentdepartments,systems,orapplicationswithinacompanyororganization.These
isolateddatasetsindisparatesystems,duetosecurityandprivacyprotectionrequirements,
cannotbeeffectivelyintegratedorsharedwithotherdatasources,therebylimitingthe
breadthanddepthofdataanalysis.Federatedlearningisaprimarytechnologicalmeans
toaddresstheissueofdatasilos,enablingcollaborativemodelingwhileensuringthatuser
dataremainslocal.
Verticalfederatedlearning,atypeoffederatedlearning,allowsmultipleparticipants
tocontributetheirdatafeaturesforjointmodeltrainingwhilemaintainingdataprivacy.
However,itstillfaceschallengesinprocessingeffi
文档评论(0)