为什么训练误差随KNN中K值的变化而变化



为什么KNN算法中的训练误差会随着K值的增加而增加?

对于k=1,训练误差为零,因为如果我们取一个点并确定第一个最近邻居,它将是训练数据集中的同一点,所以误差为零。同样的概念应该适用于k=2,3……依此类推。那么为什么训练误差会随着K 的值而增加呢

对于k=1,算法将选择最接近测试样本的训练样本,因为测试样本在训练样本中,它将自己选择,并且误差将为零,也是过拟合模型。而当k=2、k=3或更大时,它将寻找可以属于不同组的许多数量的邻居,因此错误率增加。

最新更新