我的图片标题模型在所有图片上给我相同的标题



我正在做一个与医学图像字幕相关的项目。我正在使用此链接中的代码。

我正在使用印第安纳州的射线照片数据集,并使用调查结果作为标题进行培训。我训练成功,损失值为0.75。但我的最终模型为我检查过的所有图像都提供了相同的说明(有些人也面临同样的问题。请查看此链接的评论(。

你能建议我对代码的任何部分或其他任何内容进行任何更改吗?这样它就会开始为我检查的每一张图像提供适当的标题。

提前谢谢。

查看数据集,我可以看到大多数数据都很相似(胸部X光的黑白图像(-如果我错了,请纠正我。因此,美国有线电视新闻网正在学习大多数图像的共同特征。网络不仅足够深入/先进,可以识别出不同的模式。根据您正在学习的教程,我不认为VGG-16或19网络正在学习图像中的区别模式。

图片字幕模式只能和CNN网络一样好。如果你的数据中有一个类别标签字段(如此处提供的指示/印象字段(,你实际上可以通过训练网络来预测每个图像的类别来证实这一假设,如果性能较差,你可以证实这一点。如果你有类标签,试着用一堆细胞神经网络进行实验,并使用一个达到最佳分类精度的细胞神经网络作为特征提取器。

如果你没有类标签,我建议你尝试一些更深层次的CNN架构,比如Inception或ResNet,看看性能是否有所提高。希望这有帮助!

确保每个类中的图像数量相等。如果你有1000张照片属于"肺炎"类别,只有5张属于"肋骨骨折"类别,那么你的模特几乎每次都会选择"肺炎"这个标签。

最新更新