样本大小和特征向量维度之间的经验法则关系是什么



众所周知,构成特征向量的特征数量越大,训练分类器所需的样本数量就越多。就我而言,我在一个两类问题中使用反向传播多层感知器,其中大约 256 个特征组成了一个特征向量。

现在我的样本量不是无限的。大约 2000 个阳性样本和 2000 个阴性样本。

在制定一些降维程序和所有这些之前,我想找出特征向量中的"没有"和"没有"维度之间是否存在这种关系。

两者之间没有实际的直接关系,因为必要的训练数据量还取决于模型的复杂性和所使用的训练过程。

从实际的角度来看,我建议先运行一个简单的判别分类器,看看它是如何与所有特征一起工作的,然后可能应用某种特征选择。

最新更新