- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
原文:
/heguanyou/p/7503025.html
目录
1. A-Softmax的的推推导导
2. A-Softmax Loss的的性性质质
3. A-Softmax的的几几何何意意义义
4. 源源码码解解读读
A-Softmax的的效效果果
与与L-Softmax的的区区别别
A-Softmax的的总总结结及及与与L-Softmax的的对对比比——SphereFace
【引言 SphereFace在MegaFace数据集上识别率在2017年排名第一,用的A Softmax Loss有着清晰的几何定
义,能在比较小的数据集上达到不错的效果。这个是他们总结成果的论文:SphereFace: Deep Hypersphere
Embedding for Face Recognition。我对论文做一个小的总结。
1. A-Softmax的的推推导导
回顾一下二分类下的Softmax后验概率,即:
p1=exp(WT 1x+b1)exp(WT 1x+b1)+exp(WT2x+b2)p2=exp(WT2x+b2)exp(WT 1x+b1)+exp(WT2x+b2)(1.1)
(1.1)p1=exp(W1Tx+b1)exp(W1Tx+b1)+exp(W2Tx+b2)p2=exp(W2Tx+b2)exp(W1Tx+b1)+exp(W2Tx+b2)
显然决策的分界在当p1=p2p1=p2时,所以决策界面是(W1−W2)x+b1−b2=0(W1−W2)x+b1−b2=0。我们可以将
WTix+biWiTx+bi写成∥WTi∥⋅∥x∥cos(θi)+biǁWiT ǁ⋅ǁxǁcos(θi)+bi,其中θiθi是WiWi与xx的夹角,如对WiWi归
一化且设偏置bibi为零 (∥Wi∥=1ǁWiǁ=1,bi=0bi=0),那么当p1=p2p1=p2时,我们有
cos(θ1)−cos(θ2)=0cos(θ1)−cos(θ2)=0。从这里可以看到,如里一个输入的数据特征xixi属于yiyi类,那么θyiθyi
应该比其它所有类的角度都要小,也就是说在向量空间中WyiWyi要更靠近xixi。
我们用的是Softmax Loss,对于输入xixi,Softmax Loss LiLi定义以下:
Li=−log(exp(WTyixi+byi)∑jexp(WTjxi+bj ))=−log(exp(∥WTyi∥⋅∥xi∥cos(θyi,i)+byi)∑jexp(∥WTj ∥⋅∥xi∥cos(θj ,i)+bj )
(1.2)
(1.2)Li=−log(exp(WyiTxi+byi)∑jexp(WjTxi+bj ))=−log(exp(ǁWyiT ǁ·ǁxiǁcos(θyi,i)+byi)∑jexp(ǁWjT ǁ·ǁxiǁcos(θj ,i)+bj ))
式(1.2)(1.2)中的j ∈[1,K]j ∈[1,K],其中KK类别的总数。上面我们限制了一些条件:
∥Wi∥=1ǁWiǁ=1,bi=0bi=0,由这些条件,可以得到修正的损失函数 (也就是论文中所以说的modified softmax
loss):
Lmodified=1N∑i−log(exp(∥xi∥cos(θyi,i))∑jexp(∥xi∥cos(θj ,i)))(1.3)
(1.3)Lmodified=1N∑i−log(exp(ǁxiǁcos(θyi,i))∑jexp(ǁxiǁcos(θj ,i)))
在二分类问题中,当cos(θ1)cos(θ2)cos(θ1)cos(θ2)时,可以确定属于类别1,但分类1与分类2的决策面是同
一分,说明分类1与分类2之间的间隔(margin)相当小,直观上的感觉就是分类不明显。如果要让分类1与分类2有
一个明显的间隔,可以做两个决策面,对于类别1的决策平面为:cos(mθ1)=cos(θ2)cos(mθ1)=cos(θ2),对于类
别2的策平面为:cos(θ1)=cos(mθ2)cos(θ1)=cos(mθ2),其中m≥2,m∈Nm≥2,m∈N。mm是整数的目的是为了方
便计算,因为可以利用倍角公式,m≥2m≥2说明与该分类的最大夹角要比其它类的小小夹角还要小mm倍。如果
m=1m=1,那么类别1与类别2的决策平面是同一个平面,如果m≥2m≥2v,那么类别1与类别2的有两个决策平面,
相隔多大将会在性质中说明。从上述的说明与LmodifiedLmodified可以直接得到A Softmax Loss:
Lang=1N∑i−log(exp(∥xi∥cos(mθyi,i))exp(∥xi∥cos(mθyi,i))+
您可能关注的文档
- PowerBI技巧之PowerBuilder中quick select类型的datawinow数据源控件中添加查询参数.pdf
- PowerBI技巧之PowerBI实用技巧:案例五(巧用Switch函数展现指标RGB颜色).pdf
- PowerBI技巧之PowerBI实用技巧:案例三(动态参数筛选控制排名的展示——DAX RANKX).pdf
- PowerBI技巧之PowerBI-日期和时间函数-YEAR_QUARTER_MONTH_DAY.pdf
- PowerBI技巧之PowerBI-日期和时间函数-DATE_EDATE_DATEVALUE.pdf
- PowerBI技巧之PowerBI-日期和时间函数-CALENDAR_CALENDARAUTO.pdf
- PowerBI技巧之PowerBI(Excel)提取Web数据-PowerQuery系列文章之十(Excel篇).pdf
- PowerBI技巧之PowerBI(Excel)导入XML数据-PowerQuery系列文章之六.pdf
- PowerBI技巧之PowerBI(Excel)导入Mysql 数据库中的数据.pdf
- PowerBI技巧之PowerBI(Excel)导入Json 数据-PowerQuery 系列文章之七.pdf
- PowerBI技巧之Allscripts和微软延长战略联盟关系以推动基于云的医疗IT解决方案的变革.pdf
- PowerBI技巧之20172307 2018-2019-1 《程序设计与数据结构》实验1报告.pdf
- PowerBI技巧之20172307 2017-2018-2 《程序设计与数据结构》实验2报告.pdf
- PowerBI技巧之2019 Power BI最Top50面试题,助你面试脱颖而出系列_中_.pdf
- PowerBI技巧之2019 Power BI最Top50面试题,助你面试脱颖而出系列_下_.pdf
- PowerBI技巧之2019 Power BI最Top50面试题,助你面试脱颖而出系列_上_.pdf
- PowerBI技巧之2017年11月微软合作伙伴培训—微软Power BI和sql server商业智能.pdf
- PowerBI技巧之26、Power Query-日期与时间数据处理实例(统计出某年各月各周的借书人数).pdf
- PowerBI技巧之022-会Excel就会数据分析(Kylin2.6.1+Excel+Power BI).pdf
- PowerBI技巧之1、大道至简的数据处理工具-(Microsoft Power Query入门).pdf
最近下载
- 甲骨文与青铜器课件.ppt VIP
- 《2025年CSCO宫颈癌诊疗指南》更新要点解读PPT课件.pptx VIP
- 《分数乘除混合运算》示范公开课教学设计【青岛版小学六年级数学上册】.pdf VIP
- 部编版11.一块奶酪 教学设计教案 三年级语文上册(带板书设计、教学反思)3.docx VIP
- 静脉采血技术操作规范2025版.docx VIP
- 最全的日语汽车词汇汇总.docx VIP
- 护理组织管理体系与职责分工..doc VIP
- 2025食品生产通用卫生规范年GB14881试题及参考答案.docx VIP
- 屈光手术科普知识.pptx VIP
- 2025年高考数学全国新课标Ⅰ卷试卷评析及备考策略(课件).pptx VIP
文档评论(0)