对于TensorFlow-Slim中的ResNet v2版本,输入图像大小是正确的



在TesnorFlow-Slim中的ResNet V2文档中有一些歧义,我无法完全理清。

在 README.md 中,他们说要使用 299x299 的输入图像:

^ ResNet V2 模型使用 Inception 预处理和输入图像大小 299 (使用 --preprocessing_name inception --eval_image_size 299 使用eval_image_classifier.py时)。

但是,在这里的评论中,他们使用的是 224x224 的图像:

# inputs has shape [batch, 224, 224, 3]
with slim.arg_scope(resnet_v2.resnet_arg_scope()):
net, end_points = resnet_v2.resnet_v2_101(inputs, 1000, is_training=False)

介绍ResNet V2的论文在这一点上有点令人困惑。 他们提供了一个表格,但我不清楚"训练裁剪"(224x224)还是"测试裁剪"(320x320)是推理图像大小。

模型图本身没有任何帮助;由于卷积和池化的定位方式,它似乎对任一输入图像大小都同样有效。

任何帮助将不胜感激。

更新:我运行了少量实验,似乎使用 224x224 输入图像获得了更好的分类结果。

所以官方网站说输入大小

VGG16
  1. 、VGG19 和 ResNet :224*224
  2. 规格:299
  3. *299

最新更新