我的数据矩阵是一个 1000x65K 的矩阵,包含 500 个正示例和 500 个负示例。我的特征是二进制的(0 或 1)。我的标签是 [一(500,1); -一(500,1)];
我正在使用以下代码训练线性 svm:
ost = 0.1;
epsilon = 2;
gamma = 0.1;
degree = 3;
coef0 = 0;
options_string = ['-s 0 -t 0 ' ' -c ' num2str(cost) ' -p ' num2str(epsilon) ' -g ' num2str(gamma) ' -d ' num2str(degree) ' -r ' num2str(coef0) ' -b 1'];
SVRModel = svm_train(data, labels , options_string);
我使用以下代码计算系数向量 w:
w = zeros(1,M);
for i=1:length(SVRModel.sv_coef)
w = w + SVRModel.sv_coef(i)*SVRModel.SVs(i,:);
end
但是,生成的向量 w 的所有值都是相同的。此外,我得到了 484 个支持向量,所有前 424 个 svm 系数都是 0.1,其余的(也是 424 个)是 -0.1。
这怎么可能?有人可以阐明我的问题吗?
谢谢
吉尔。
首先,您不需要线性 SVM 中的gamma
和coef0
。
其次,我认为应该是
SVRModel = svm_train(labels, data, options_string);
在您的培训过程中。
您可以矢量化权重和偏差项。
w = model.SVs' * model.sv_coef;
b = -model.rho;