2026—2027年联邦学习与隐私计算技术成熟,实现在数据不出域的前提下进行联合建模与AI训练,满足金融、医疗等高敏感行业的合规需求.pptxVIP

  • 0
  • 0
  • 约1.67千字
  • 约 52页
  • 2026-02-05 发布于浙江
  • 举报

2026—2027年联邦学习与隐私计算技术成熟,实现在数据不出域的前提下进行联合建模与AI训练,满足金融、医疗等高敏感行业的合规需求.pptx

;目录;;理论基石的三次跃迁:从分布式优化到密码学融合,奠定“数据可用不可见”的数学与算法基础

联邦学习的核心思想是在数据保留于本地的前提下,通过交换模型更新(如梯度、参数)而非原始数据来完成联合训练。其理论根源可追溯至分布式优化算法,如分布式随机梯度下降(SGD)。然而,单纯的分布式学习无法抵御隐私推理攻击。因此,第一次跃迁是与差分隐私结合,通过在模型更新中添加精心calibrated的噪声,从统计上保证任何单个数据点的信息无法被逆向推断,但代价是可能影响模型效用。第二次跃迁是与安全多方计算深度融合,特别是基于同态加密或秘密分享的技术,实现在加密状态下进行模型聚合,从密码学层面提供

您可能关注的文档

文档评论(0)

1亿VIP精品文档

相关文档