focal loss 类别不平衡

focal loss 类别不平衡

首先看一下paper中的一张图 已经很清晰了

其中 表示真实类别的模型预测概率

image

这里举一个例子:

假设一个二分类,样本x1属于类别1的pt=0.9,样本x2属于类别1的pt=0.6,显然前者更可能是类别1,假设γ=1,那么对于pt=0.9,调制系数则为0.1;对于pt=0.6,调制系数则为0.4,这个调制系数就是这个样本对loss的贡献程度,也就是权重,所以难分的样本(pt=0.6)的权重更大。Figure1中γ=0的蓝色曲线就是标准的交叉熵损失。

我觉得有必要搞清楚这个loss的来源 :

起源于目标分割任务,对于YOLO,SSD这样不需要region proposal,直接回归的检测算法,负样本太(anchor中没有目标)多了,并且大多数负样本都是容易分类的样本,对于loss的贡献很小,对于模型学习而言都是没有用的学习信号。

为了解决样本不平衡的问题 作者尝试对容易分类的样本加上低权重,对于难分类样本加上大权重。样本难易的定义就是p_t大的样本是易分类的样本,p_t小的样本是难分类样本

ref:https://blog.csdn.net/u014380165/article/details/77019084

全部评论

相关推荐

点赞 收藏 评论
分享
牛客网
牛客企业服务