不能在随机森林分类器中使用编码数据



我是science -learn的新手。我正在尝试使用预处理。OneHotEncoder编码我的训练和测试数据。编码后,我尝试使用这些数据训练随机森林分类器。但我得到以下错误时拟合。(这里是错误跟踪)

    99         model.fit(X_train, y_train)
    100         preds = model.predict_proba(X_cv)[:, 1]
    101 
C:Python27libsite-packagessklearnensembleforest.pyc in fit(self, X, y, sample_weight)
    288 
    289         # Precompute some data
--> 290         X, y = check_arrays(X, y, sparse_format="dense")
    291         if (getattr(X, "dtype", None) != DTYPE or
    292                 X.ndim != 2 or
C:Python27libsite-packagessklearnutilsvalidation.pyc in check_arrays(*arrays, **options)
    200                     array = array.tocsc()
    201                 elif sparse_format == 'dense':
--> 202                     raise TypeError('A sparse matrix was passed, but dense '
    203                                     'data is required. Use X.toarray() to '
    204                                     'convert to a dense numpy array.')
TypeError: A sparse matrix was passed, but dense data is required. Use X.toarray() to convert to a dense numpy array.

我尝试使用X.toarray()和X.todense()将稀疏矩阵转换为密集矩阵。但是当我这样做时,我得到了下面的错误跟踪。

 99         model.fit(X_train.toarray(), y_train)
    100         preds = model.predict_proba(X_cv)[:, 1]
    101 
C:Python27libsite-packagesscipysparsecompressed.pyc in toarray(self)
    548 
    549     def toarray(self):
--> 550         return self.tocoo(copy=False).toarray()
    551 
    552     ##############################################################
C:Python27libsite-packagesscipysparsecoo.pyc in toarray(self)
    236 
    237     def toarray(self):
--> 238         B = np.zeros(self.shape, dtype=self.dtype)
    239         M,N = self.shape
    240         coo_todense(M, N, self.nnz, self.row, self.col, self.data, B.ravel())
ValueError: array is too big.

谁能帮我解决这个问题?

谢谢

sklearn随机森林不适用于稀疏输入,并且您的数据集形状太大且过于稀疏,对于密集版本来说无法适应内存。

您可能有一些具有很大基数的分类特性(例如自由文本字段或唯一条目id)。试着去掉那些功能,重新开始。

相关内容

  • 没有找到相关文章

最新更新