为什么xgboost在与mlr3一起使用时没有计算所有变量的重要性



因此,我使用这里的超导数据集。。。它包含82个变量,我将数据细分为2000行。但当我将xgboostmlr3一起使用时,它不会计算所有变量的重要性!?

以下是我设置一切的方式:

# Read in data
mydata <- read.csv("/Users/.../train.csv", sep = ",")
data <- mydata[1:2000,]
# set up xgboost using mlr3
myTaskXG = TaskRegr$new(id = "data", backend = data, target = "critical_temp")
myLrnXG = lrn("regr.xgboost")
myModXG <- myLrnXG$train(myTaskXG)
# Take a look at the importance
myLrnXG$importance() 

它输出的内容如下:

wtd_mean_FusionHeat      std_ThermalConductivity              entropy_Density 
0.685125173                  0.105919410                  0.078925149 
wtd_gmean_FusionHeat      wtd_range_atomic_radius           entropy_FusionHeat 
0.038797205                  0.038461823                  0.020889094 
wtd_mean_Density           wtd_std_FusionHeat    gmean_ThermalConductivity 
0.017211730                  0.006662321                  0.005598844 
wtd_entropy_ElectronAffinity   wtd_entropy_Density 
0.001292733                  0.001116518 

正如你所看到的,那里只有11个变量。。。当应该有81时……如果我使用ranger执行类似的过程,那么一切都会完美地工作。

有什么建议吗?

简短回答:{xgboost}不会返回所有变量。

更长的答案:

这不是一个mlr3问题,而是一个关于xgboost包的问题。来自该学习者的importance方法简单地称为xgboost::xgb.importance。如果你看看这个页面上的例子:

data(agaricus.train, package='xgboost')
bst <- xgboost(data = agaricus.train$data, label = agaricus.train$label, max_depth = 2, 
eta = 1, nthread = 2, nrounds = 2, objective = "binary:logistic")
xgb.importance(model = bst)

这将返回

> xgb.importance(model = bst)
Feature       Gain     Cover Frequency
1:               odor=none 0.67615471 0.4978746       0.4
2:         stalk-root=club 0.17135375 0.1920543       0.2
3:       stalk-root=rooted 0.12317236 0.1638750       0.2
4: spore-print-color=green 0.02931918 0.1461960       0.2

但是在整个数据集中有127个变量。

这背后的数学原理只是ranger和xgboost使用不同的重要性方法,xgboos特只包括拟合模型中实际使用的特征,而ranger使用杂质或置换,并考虑所有分割时的所有特征。

顺便说一句,下次请提供一个reprex(使用易于访问的数据和代码的简短可复制示例(。

相关内容

最新更新