图像分类迁移学习需要反例吗



任务是确定图像属于三个类中的哪一个,或者不属于。

我收到了一个现成的模型。具有ImageNet权重的EfficientNet B4应用迁移学习来识别4个类别:3个目标类别和第4个"无"类别。Latter是在不包含任何目标物体的随机图像的例子上训练的。

问题是,这是否是正确的方法——是否需要第四节课?

我的直觉是,net应该只针对3个目标类进行训练。如果输出概率保持在某个阈值(90%?(以下,则图像应被视为不包含任何目标对象。我说得对吗?

由于softmax函数的性质和训练网络的方式,您需要第4个类。

让我们看一个具体的例子:你训练你的网络来区分苹果、橙子和香蕉。然而,你不知怎么得到了一张李子的照片。

您可能会第一眼感到惊讶,但您需要数据集中的其他类。不能保证使用阈值设置将帮助您消除其他类。

您可能会遇到以下两种情况:

  1. 假设您在未知N+1类上进行测试,则未知类的输出概率保证为1/N
  2. 一个特定的阈值,超过这个阈值(就像您假设的(< 90%它就不是类

假设接下来的情况:

  1. 如果你有一个苹果看起来真的像橙色,并且你的模型正确地预测了40%的苹果,30%的橙色,30%香蕉,但由于你应用了正确识别的阈值苹果(真阳性(被淘汰了?一个简单的案例,您可以消除网络的良好输出
  2. 你仍然可以有91%的分配给一个类,尽管新的"水果"到达不是你的数据集的一部分;这是由于固有的计算和softmax的工作方式

个人经验:我曾经训练过一个网络来区分多种类型的交通标志。出于纯粹的好奇,我举了一个客厅椅子的例子。我期待着和你一样的事情(阈值(,但令我惊讶的是,它是85%";Yield Way";。

最新更新