focal loss 类别不平衡

focal loss 类别不平衡

首先看一下paper中的一张图 已经很清晰了

其中 表示真实类别的模型预测概率

image

这里举一个例子:

假设一个二分类,样本x1属于类别1的pt=0.9,样本x2属于类别1的pt=0.6,显然前者更可能是类别1,假设γ=1,那么对于pt=0.9,调制系数则为0.1;对于pt=0.6,调制系数则为0.4,这个调制系数就是这个样本对loss的贡献程度,也就是权重,所以难分的样本(pt=0.6)的权重更大。Figure1中γ=0的蓝色曲线就是标准的交叉熵损失。

我觉得有必要搞清楚这个loss的来源 :

起源于目标分割任务,对于YOLO,SSD这样不需要region proposal,直接回归的检测算法,负样本太(anchor中没有目标)多了,并且大多数负样本都是容易分类的样本,对于loss的贡献很小,对于模型学习而言都是没有用的学习信号。

为了解决样本不平衡的问题 作者尝试对容易分类的样本加上低权重,对于难分类样本加上大权重。样本难易的定义就是p_t大的样本是易分类的样本,p_t小的样本是难分类样本

ref:https://blog.csdn.net/u014380165/article/details/77019084

全部评论

相关推荐

牛客刘北:如果暑期实习是27届的话,你要晚一年才会毕业,企业为什么会等你呢?要搞清时间逻辑呀!27届现在实习只能是在暑假实习,这是日常实习,不是暑期实习。所以多去投日常实习吧,暑期实习肯定不会要你的
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务