时间: 2020-11-25|69次围观|0 条评论

目标检测中,会有大量的负样本,也就是背景样本,如果使得正样本对loss的影响更大,是focal loss提出来解决的方案。

作者以二分类为例进行说明: 
首先是我们常使用的交叉熵损失函数:

      学习记录之Focal loss插图

  

   学习记录之Focal loss插图1

要对类别不均衡问题对loss的贡献进行一个控制,即加上一个控制权重即可,最初作者的想法即如下这样,对于属于少数类别的样本,增大α即可 :

学习记录之Focal loss插图2

 

但这样有一个问题,它仅仅解决了正负样本之间的平衡问题,并没有区分易分/难分样本,因此后面有了如下的形式: 

学习记录之Focal loss插图3

显然,样本越易分,pt越大,则贡献的loss就越小,相对来说,难分样本所占的比重就会变大。因此,通过这个公式区分了易分/难分样本,在实际中,作者采用如下公式,即综合了上述两个公式的形式

学习记录之Focal loss插图4

 

转载于:https://www.cnblogs.com/ChrisInsistPy/p/9669499.html

原文链接:https://blog.csdn.net/weixin_30342827/article/details/97292243

本站声明:网站内容来源于网络,如有侵权,请联系我们,我们将及时处理。

本博客所有文章如无特别注明均为原创。
复制或转载请以超链接形式注明转自起风了,原文地址《学习记录之Focal loss
   

还没有人抢沙发呢~