利用sklearn对大型稀疏矩阵进行主成分分析



我正在尝试将PCA应用于巨大的稀疏矩阵,在下面的链接中,它说sklearn的随机化PCA可以处理scipy稀疏格式的稀疏矩阵。PCA在超大稀疏矩阵中的应用

然而,我总是犯错误。有人能指出我做错了什么吗。

输入矩阵"X_train"包含float64:中的数字

>>>type(X_train)
<class 'scipy.sparse.csr.csr_matrix'>
>>>X_train.shape
(2365436, 1617899)
>>>X_train.ndim 
2
>>>X_train[0]     
<1x1617899 sparse matrix of type '<type 'numpy.float64'>'
    with 81 stored elements in Compressed Sparse Row format>

我正在努力做到:

>>>from sklearn.decomposition import RandomizedPCA
>>>pca = RandomizedPCA()
>>>pca.fit(X_train)
Traceback (most recent call last):
  File "<stdin>", line 1, in <module>
  File "/home/RT11/.pyenv/versions/2.7.9/lib/python2.7/site-packages/sklearn/decomposition/pca.py", line 567, in fit
    self._fit(check_array(X))
  File "/home/RT11/.pyenv/versions/2.7.9/lib/python2.7/site-packages/sklearn/utils/validation.py", line 334, in check_array
    copy, force_all_finite)
  File "/home/RT11/.pyenv/versions/2.7.9/lib/python2.7/site-packages/sklearn/utils/validation.py", line 239, in _ensure_sparse_format
    raise TypeError('A sparse matrix was passed, but dense '
TypeError: A sparse matrix was passed, but dense data is required. Use X.toarray() to convert to a dense numpy array.

如果我试图转换为稠密矩阵,我想我已经没有记忆了。

>>> pca.fit(X_train.toarray())
Traceback (most recent call last):
  File "<stdin>", line 1, in <module>
  File "/home/RT11/.pyenv/versions/2.7.9/lib/python2.7/site-packages/scipy/sparse/compressed.py", line 949, in toarray
    return self.tocoo(copy=False).toarray(order=order, out=out)
  File "/home/RT11/.pyenv/versions/2.7.9/lib/python2.7/site-packages/scipy/sparse/coo.py", line 274, in toarray
    B = self._process_toarray_args(order, out)
  File "/home/RT11/.pyenv/versions/2.7.9/lib/python2.7/site-packages/scipy/sparse/base.py", line 800, in _process_toarray_args
    return np.zeros(self.shape, dtype=self.dtype, order=order)
MemoryError

由于PCA的性质,即使输入是稀疏矩阵,输出也不是。你可以用一个快速的例子来检查它:

>>> from sklearn.decomposition import TruncatedSVD
>>> from scipy import sparse as sp

创建一个随机稀疏矩阵,其中0.01%的数据为非零。

>>> X = sp.rand(1000, 1000, density=0.0001)

将PCA应用于它:

>>> clf = TruncatedSVD(100)
>>> Xpca = clf.fit_transform(X)

现在,检查结果:

>>> type(X)
scipy.sparse.coo.coo_matrix
>>> type(Xpca)
numpy.ndarray
>>> print np.count_nonzero(Xpca), Xpca.size
95000, 100000

这表明95000个条目是非零的,然而,

>>> np.isclose(Xpca, 0, atol=1e-15).sum(), Xpca.size
99481, 100000

99481个元素接近0<1e-15),但不接近0

简而言之,这意味着,对于PCA,即使输入是稀疏矩阵,输出也不是。因此,如果你试图从矩阵中提取100000000(1e8)个分量,你最终会得到一个1e8 x n_features(在你的例子中是1e8 x 1617899)密集矩阵,当然,它不能保存在内存中。

我不是一个专业的统计学家,但我相信目前使用scikit-learn还没有解决办法,因为这不是scikit-learn实现的问题,只是他们的稀疏PCA(通过稀疏SVD)的数学定义,这使得结果密集。

对你来说,唯一可行的解决方法是从少量组件开始,并增加它,直到你在可以保存在内存中的数据和解释的数据百分比之间取得平衡(你可以如下计算):

>>> clf.explained_variance_ratio_.sum()

PCA(X)是SVD(X-mean(X))。即使X是稀疏矩阵,X-mean(X)也总是稠密矩阵。因此,随机化SVD(TruncatedVD)不像稀疏矩阵的随机化SVD那样有效。然而,延迟评估

延迟(X均值(X))

可以避免将稀疏矩阵X扩展为密集矩阵X-mean(X)。延迟评估使得能够使用随机化SVD对稀疏矩阵进行有效的PCA。

此机制在我的包中实现:
https://github.com/niitsuma/delayedsparse/

您可以使用此机制查看PCA的代码:https://github.com/niitsuma/delayedsparse/blob/master/delayedsparse/pca.py

与现有方法的性能比较表明,该机制大大减少了所需的内存大小:https://github.com/niitsuma/delayedsparse/blob/master/demo-pca.sh

该技术的更多详细描述可以在我的专利中找到:https://patentscope2.wipo.int/search/ja/detail.jsf?docId=JP225380312

相关内容

  • 没有找到相关文章

最新更新