scikit-learn或statsmodels中线性回归的调整参数的极限界



是否可以限制scikit learn或statsmodels中线性回归的调整参数的界限,例如statsmodels.regression。linear_model.OLS或sklearn.linear_model.LinearRevolution?

http://statsmodels.sourceforge.net/devel/generated/statsmodels.regression.linear_model.OLS.html

http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LinearRegression.html

编辑


scipy 0.17包括带有约束的scipy.optimize.lestsq:

http://docs.scipy.org/doc/scipy-0.17.0/reference/generated/scipy.optimize.leastrongquares.html#scipy.optimize.leastrongquares

理想情况下,我想要的是最小化目标误差函数,同时最小化从默认值1.0调整乘法器参数的变化。这可能是目标函数的一部分。

请注意,这是适用于我的框边界的选项列表:

method='trf' or 'dogbox'
loss='cauchy'
f_scale=1e-5 to 1e-2

不确定"限制调优参数的界限"是什么意思。

  • 如果您希望结果组件位于预先指定的范围内,可以尝试scipy.optimize.least_squares,它可以解决

    最小化F(x)=0.5*sum(rho(F_i(x)**2),i=0。。。,m-1)受制于lb<=x<=ub

  • 如果您担心由于共线性导致结果分量的大小过大,可以尝试sklearn.linear_model.Ridge(或其他正则化线性回归器)。

相关内容

  • 没有找到相关文章

最新更新