scikit-learn中交叉验证的一个标准错误规则



我正在尝试使用grisSearchCV在scikit-learn中拟合一些模型,我想使用"一个标准误差"规则来选择最佳模型,即从得分在最佳分数的一个标准误差内的模型子集中选择最简约的模型。有办法做到这一点吗?

您可以使用以下命令计算验证分数的平均值的标准误差:

from scipy.stats import sem

然后访问拟合的GridSearchCV对象的grid_scores_属性。这个属性在scikit-learn的主分支中已经改变了,所以请使用交互式shell来自省它的结构。

对于选择最简洁的模型,模型的模型参数并不总是有一个自由度的解释。参数的含义通常是特定于模型的,并且没有高级元数据来解释它们的"简约性"。您可以为每个模型类逐个编码您的解释。

最新更新