我正在阅读SVM的数学公式,在许多来源上,我发现了这样的想法,即"最大边距超平面完全由离它最近的\vec{x}_i决定。这些 \vec{x}_i 称为支持向量。专家能用数学来解释这个结果吗?请。
这只有在使用表示定理时才是正确的
分离平面 W 可以表示为 Sum(i= 1 到 m( Alpha_i*phi(x_i(其中 m - 训练样本和x_i中的示例数是示例 i。Phi 是将x_i映射到某些特征空间的函数。
因此,您的 SVM 算法将找到向量 Alpha=(Alpha_1...Alpha_m(, - alpha_i 表示x_i。他的alpha_i不为零的每个x_i(训练样本中的示例(都是 W 的支持向量。
因此得名 - SVM。
如果你的数据是可分离的,会发生什么情况,你只需要支持接近分离裕度W的向量,并且可以丢弃训练集的其余部分(其alphas为0(。 算法将使用的支持向量的数量取决于您使用的数据和内核的复杂性。