当我运行H2O AutoML的实验时,我得到了错误:">在抛出'thrust::system::system_error'实例后调用什么():parallel_for失败:无效的资源句柄"。这个错误信息来自XGBoost,这是由于GPU限制超过。
当我使用常规的XGBoost时,我将cuda可见设备参数设置为空白以禁用gpu。然而,这个参数在H2O AutoML - XGBoost实现中似乎被忽略了。
import os
os.environ["CUDA_VISIBLE_DEVICES"] = ""
目前,只有H2O AutoML可以在gpu上运行xgboost。
问题是有人知道如何在H2O AutoML中禁用gpu吗?
作为一种变通方法,我现在排除了XGBoost算法来运行我的实验。当我排除XGBoost时,麻烦就过去了,但我不想放弃XGBoost的功能。
from h2o.automl import H2OAutoML
model = H2OAutoML(max_runtime_secs = 60*60*2, exclude_algos = ["XGBoost"])
这绝对是一个疏忽,我们需要添加打开/关闭和/或指定GPU的能力。我为此开了一张票。我想知道是否有一种方法可以暂时禁用GPU在系统级(H2O/Python之外)在此期间?谢谢你的报告!