- 440
- 0
- 约3.12千字
- 约 6页
- 2018-03-29 发布于天津
- 举报
迁移学习MMD和再核希尔伯特空间
迁移学习:MMD和再⽣核希尔伯特
空间
4 个⽉前
写在前⾯:
以后我会把论⽂导读的部分写到知乎,某些源码实现的部分依然放在
CSDN,上⾯还有⼏篇⽂章就不⼀⼀搬运了,有需要的同学可以参考:我的
CSDN。本⼈⾮专业⼤神,如有不当的地⽅或者有疑问,不⽤私信请在评论
区留⾔,我会及时修改。
内容还是以迁移学习为主,当然其他⽅⾯的论⽂也会涉及
⼀.引⼊
今天主要说说迁移学习当中source domain—target domain的差异性度
量,传统学习⽅法有⼀个假设:training sample和test sample都是从同⼀
个分布抽样得到,即训练集和测试集是iid.(独⽴同分布)的,这个假设使
得离线的学习⽅法得以运⾏。在迁移学习环境下training sample和test
sample分别取样⾃分布p和q,两个样本不同但相关,现在我们要通过测试
样本改善模型性能。求解这个问题的思路⽐较多,这⾥只列⼀个⺫前流⾏的
思路:
利⽤深度神经⺴络的特征变换能⼒,来做特征空间的transformation,直到
变换后的特征分布相匹配,这个过程可以是source domain⼀直变换直到
匹配target domain,也可以是source domain和target domain⼀起变
换直到匹配(例如下图)
引⼊了那么多,终于扯到匹配了
原创力文档

文档评论(0)