我注意到,当我包含如下所示的图像增强选项来训练我的对象检测模型时,损失值非常高,例如 30K 和 65K,这与我不使用这些选项不同
为什么会这样?请注意,我只观察到了前几百步,并且没有让我的模型坐太久。
这些损失值为 65K
data_augmentation_options {
random_image_scale {
min_scale_ratio:0.5
min_scale_ratio:2
}
}
data_augmentation_options {
scale_boxes_to_pixel_coordinates {
}
}
~30K 加上这些损失值
data_augmentation_options {
random_image_scale {
min_scale_ratio:0.5
min_scale_ratio:2
}
}
data_augmentation_options {
random_pixel_value_scale {
}
}
data_augmentation_options {
random_crop_image {
}
}
data_augmentation_options {
scale_boxes_to_pixel_coordinates {
}
}
我昨天刚刚观察到了同样的情况,并为我提出了以下观察结果。如果您只观察几个步骤的训练,它无法像使用非增强数据集那样快速概括整个测试集。在这里,你必须看到一个像一个更大的数据集一样的增强数据集,其中有更多的方差。但是这里的信息从第一个纪元开始就不可用,它需要一些时间,直到在训练期间暴露这种差异。
因此,只需尝试训练更长时间并观察结果,结果应该会有所改善。