二进制类别的语义分割的损失不融合数据剂量的二进制类别



我想分割仅占据整个数据集的一小部分的对象(例如,ICDAR 2015或CAMVID中的人)。像素级别的阳性样品和负样本之间的比率约为1:200。

我的网络的骨干是预先训练的VGG16或RESNET50,可以在CAMVID数据集中效果很好。但是,当我微调该网络以仅在Camvid中分段的人时,损失将保持在0.31左右,即使真正的学习率很小(例如1E-5)也永远不会降低。更重要的是,当在另一个数据集(ICDAR 2015)上训练新模型以获取图像中的文本领域时,我遇到了同样的问题。

我用pytorch构建了我的模型,而我使用的损失函数是加权的跨透镜损失。

有人可以告诉我问题在哪里吗?这是关于损失功能的吗?因为我认为模型体系结构没有问题。非常感谢任何建议。

对于camvid数据集,人类类别很难通过我的网络进行细分。对于ICDAR 2015,我认为我的处理中存在一些问题(例如随机裁剪)。最后,数据集确实很重要,我们应该对其进行更多注意。

最新更新