二元分类:为什么用+1/0作为标签,+1/-1甚至+100/-100有什么区别



在二元分类问题中,我们通常用+1表示正标签,用0表示负标签。为什么呢?特别是为什么使用0而不是-1标签吗?

用-1表示负标签有什么区别,或者更一般地说,我们可以用+100表示正标签,用-100表示负标签吗?

顾名思义(标签)用于区分类别。你可以使用0/1,+1/-1,cat/dog等(任何适合你问题的名称)。例如:

  1. 如果你想区分猫和狗的图像,那么使用猫和狗标签。

  2. 如果你想检测垃圾邮件,那么标签将是spam/genuine。

然而,由于ML算法在训练前主要处理数字,因此标签转换为数字格式。

使用0和1的标签是由历史上最早用于二元分类的一些方法自然产生的。例如,逻辑回归模型直接事件发生的概率,事件在这种情况下意味着一个对象属于积极或消极类。当我们使用标签为0和1的训练数据时,基本上意味着标签为0的对象属于给定类的概率为0,标签为1的对象属于给定类的概率为1。例如,对于垃圾邮件分类,非垃圾邮件的标签为0,这意味着它们成为垃圾邮件的概率为0,而垃圾邮件的标签为1,因为它们成为垃圾邮件的概率为1。

所以使用0和1的标签在数学上是完全合理的。当一个二元分类模型对某些输入输出0.4时,我们通常可以将其解释为属于一类1的概率(尽管严格来说并非总是如此,正如这里的例子所指出的那样)。

有些分类方法不利用标签0和1的便利属性,比如支持向量机或线性判别分析,但在这种情况下,没有其他标签能比0和1更方便,所以使用0和1仍然是可以的。

甚至多类分类的类编码也使用属于给定类的概率。例如,在三个类别的分类中,第一类的对象将被编码为[1 0 0],第二类的对象将被编码为[0 1 0],第三类的对象将被编码为[0 0 1],这同样可以用概率来解释。(这被称为单热编码)。多类分类模型的输出通常是形式为[0.1 0.6 0.3]的向量,可以方便地解释为给定对象的类概率向量。

相关内容

最新更新