我对使用 GPU 训练模型有一点了解。我正在使用scikit-learn中的K-means来训练我的模型。由于我的数据非常大,是否可以使用 GPU 训练此模型以减少计算时间?或者您能否建议任何使用 GPU 功率的方法?
另一个问题是我是否使用TensorFlow来构建K-means,如本博客所示。
https://blog.altoros.com/using-k-means-clustering-in-tensorflow.html
它会不会使用 GPU?
提前谢谢你。
要检查您的 GPU 是否支持 CUDA: https://developer.nvidia.com/cuda-gpus
到目前为止,Scikit-learn还没有支持CUDA。你可能想使用TensorFlow: https://www.tensorflow.org/install/install_linux
我希望这有所帮助。
如果您启用了 CUDA 的 GPU 具有计算能力 3.0 或更高版本,并安装了 GPU 支持的 Tensorflow 版本,那么它肯定会使用 GPU 进行训练。
有关 NVIDIA 要求运行支持 GPU 的 TensorFlow 的其他信息,请查看以下链接:
https://www.tensorflow.org/install/install_linux#nvidia_requirements_to_run_tensorflow_with_gpu_support