我想在我的X_train上运行一个 XGBoost 树回归的 CV,y_train数据。我的目标是从 25 到 40 的整数值。我尝试在我的训练数据集上运行此代码
# A parameter grid for XGBoost
from xgboost import XGBRegressor
from sklearn.model_selection import GridSearchCV
cv_params = {
'min_child_weight': [1, 3, 5],
'gamma': [0.5, 1, 2, 3],
'subsample': [i/10.0 for i in range(6,11)],
'colsample_bytree': [i/10.0 for i in range(6,11)],
'max_depth': [3, 5, 7],
'learning_rate': [0.01, 0.02, 0.1]
}
# Initialize XGB
xgb_for_gridsearch = XGBRegressor(
n_estimators = 1000,
objective = 'reg:logistic',
seed = 7
)
# Initialize GridSearch
xgb_grid = GridSearchCV(
estimator = xgb_for_gridsearch,
param_grid = cv_params,
scoring = 'explained_variance',
cv = 5,
n_jobs = -1
)
xgb_grid.fit(X_train, y_train)
xgb_grid.grid_scores_
我得到一个错误 fit()。我有点期望简历会永远存在,但并不是真正的错误。错误输出有几千行长,所以我只放置与我的代码相关的唯一部分:
During handling of the above exception, another exception occurred:
JoblibXGBoostError Traceback (most recent call last)
<ipython-input-44-a5c1d517107d> in <module>()
25 )
26
---> 27 xgb_grid.fit(X_train, y_train)
有谁知道这与什么有关?我是否使用了冲突的参数?使用 xgboost.cv() 会更好吗?如果有帮助,我还可以添加整个错误代码,我应该将其添加到这个问题的底部吗?
更新:按照XGRegressor_not_fitting_data建议,将错误添加到 Gist,因为错误太长。
感谢您添加完整的错误代码,它更容易帮助您。github存储库很好,但你可能会发现它更容易使用 https://gist.github.com/或 https://pastebin.com/
请注意,完整错误中最有用的行通常是最后一行,其中包含以下内容:
label must be in [0,1] for logistic regression
您似乎使用了逻辑回归(代码中objective = 'reg:logistic',
),这是一种分类损失,因此它要求y_train
是 0 或 1 的数组。
您可以使用类似的东西轻松修复它
y_train_bin = (y_train == 1).astype(int)
xgb_grid.fit(X_train, y_train_bin)