减少误报ML模型



在训练ML模型时,有没有一种很好的方法来强制限制误报?

假设您从一个具有两个类的平衡数据集开始。您开发了一个用于二进制分类的ML模型。由于任务很容易,输出分布将分别在0和1处达到峰值,并在0.5左右重叠。然而,你真正关心的是,你的假阳性率是可持续的,不能超过一定的数量。所以,充其量你希望pred>0.8你只有一节课。

目前,我正在对两个类进行加权,以惩罚类上的错误";0〃;。

history = model.fit(..., class_weight={0:5, 1:1}, ...)

正如预期的那样,它确实降低了区域pred>0.8,当然这会使第1类的召回情况恶化。

我想知道是否还有其他方法可以强制执行。

谢谢

根据您的问题,您可以考虑一类分类svm。这篇文章可能很有用:https://towardsdatascience.com/outlier-detection-with-one-class-svms-5403a1a1878c。这篇文章还展示了为什么一类分类比其他一些经典技术(如过采样/欠采样或类加权(更适合考虑。当然,这取决于你想要解决的问题。

相关内容

  • 没有找到相关文章

最新更新