我有一个语料库的单词包,由W稀疏矩阵word_freqs
存储在D中。每一行是一个文档,每一列是一个单词。给定元素word_freqs[d,w]
表示单词w在文档d中的出现次数。
我试图通过W矩阵not_word_occs
获得另一个D,其中,对于word_freqs
的每个元素:
- 如果
word_freqs[d,w]
为零,则not_word_occs[d,w]
应为一 - 否则,
not_word_occs[d,w]
应为零
最终,这个矩阵将需要与其他可能是密集或稀疏的矩阵相乘。
我尝试了很多方法,包括:
not_word_occs = (word_freqs == 0).astype(int)
这是玩具示例的单词,但对于我的实际数据(大约为18000x16000),结果是MemoryError
。
我也试过np.logical_not()
:
word_occs = sklearn.preprocessing.binarize(word_freqs)
not_word_occs = np.logical_not(word_freqs).astype(int)
这看起来很有希望,但np.logical_not()
不适用于稀疏矩阵,给出了以下错误:
ValueError: The truth value of an array with more than one element is ambiguous. Use a.any() or a.all().
如有任何想法或指导,我们将不胜感激。
(顺便说一句,word_freqs
是由sklearn的preprocessing.CountVectorizer()
生成的。如果有一个解决方案需要将其转换为另一种矩阵,我当然对此持开放态度。)
稀疏矩阵的非零位置的补码是稠密的。因此,如果你想用标准numpy数组实现你的既定目标,你将需要相当多的RAM。这里有一个快速而完全不科学的破解方法,让你知道你的计算机可以处理多少这样的阵列:
>>> import numpy as np
>>> a = []
>>> for j in range(100):
... print(j)
... a.append(np.ones((16000, 18000), dtype=int))
我的笔记本电脑在j=1时窒息了。所以,除非你有一台非常好的电脑,即使你能得到补码(你可以做
>>> compl = np.ones(S.shape,int)
>>> compl[S.nonzero()] = 0
)内存将是一个问题。
一种解决方法可能是不显式计算补码,我们称之为C=B1-A,其中B1是完全由1填充的相同形状矩阵,A是原始稀疏矩阵的邻接矩阵。例如,矩阵乘积XC可以写成XB1-XA,所以你有一个与稀疏A的乘积和一个与B1的乘积,这实际上很便宜,因为它可以归结为计算行和。这里的重点是,你可以在不首先计算C的情况下计算它。
一个特别简单的例子是与一个热向量相乘。这样的乘法只选择另一个矩阵的一列(如果从右边相乘)或一行(如果从左边相乘)。这意味着你只需要找到稀疏矩阵的那一列或那一行,并取补码(对于单个切片没有问题),如果你对一个热矩阵这样做,如上所述,你不需要显式计算补码。
制作一个小型稀疏矩阵:
In [743]: freq = sparse.random(10,10,.1)
In [744]: freq
Out[744]:
<10x10 sparse matrix of type '<class 'numpy.float64'>'
with 10 stored elements in COOrdinate format>
repr(freq)
显示了形状、元素和格式。
In [745]: freq==0
/usr/local/lib/python3.5/dist-packages/scipy/sparse/compressed.py:213: SparseEfficiencyWarning: Comparing a sparse matrix with 0 using == is inefficient, try using != instead.
", try using != instead.", SparseEfficiencyWarning)
Out[745]:
<10x10 sparse matrix of type '<class 'numpy.bool_'>'
with 90 stored elements in Compressed Sparse Row format>
如果执行第一个操作,我会得到一个警告和一个包含90(满分100)个非零项的新数组。not
不再稀疏。
通常,numpy函数在应用于稀疏矩阵时不起作用。为了工作,他们必须将任务委托给稀疏方法。但即使logical_not
起作用,它也无法解决内存问题。
以下是使用Pandas.SparseDataFrame:的示例
In [42]: X = (sparse.rand(10, 10, .1) != 0).astype(np.int64)
In [43]: X = (sparse.rand(10, 10, .1) != 0).astype(np.int64)
In [44]: d1 = pd.SparseDataFrame(X.toarray(), default_fill_value=0, dtype=np.int64)
In [45]: d2 = pd.SparseDataFrame(np.ones((10,10)), default_fill_value=1, dtype=np.int64)
In [46]: d1.memory_usage()
Out[46]:
Index 80
0 16
1 0
2 8
3 16
4 0
5 0
6 16
7 16
8 8
9 0
dtype: int64
In [47]: d2.memory_usage()
Out[47]:
Index 80
0 0
1 0
2 0
3 0
4 0
5 0
6 0
7 0
8 0
9 0
dtype: int64
数学:
In [48]: d2 - d1
Out[48]:
0 1 2 3 4 5 6 7 8 9
0 1 1 0 0 1 1 0 1 1 1
1 1 1 1 1 1 1 1 1 0 1
2 1 1 1 1 1 1 1 1 1 1
3 1 1 1 1 1 1 1 0 1 1
4 1 1 1 1 1 1 1 1 1 1
5 0 1 1 1 1 1 1 1 1 1
6 1 1 1 1 1 1 1 1 1 1
7 0 1 1 0 1 1 1 0 1 1
8 1 1 1 1 1 1 0 1 1 1
9 1 1 1 1 1 1 1 1 1 1
源稀疏矩阵:
In [49]: d1
Out[49]:
0 1 2 3 4 5 6 7 8 9
0 0 0 1 1 0 0 1 0 0 0
1 0 0 0 0 0 0 0 0 1 0
2 0 0 0 0 0 0 0 0 0 0
3 0 0 0 0 0 0 0 1 0 0
4 0 0 0 0 0 0 0 0 0 0
5 1 0 0 0 0 0 0 0 0 0
6 0 0 0 0 0 0 0 0 0 0
7 1 0 0 1 0 0 0 1 0 0
8 0 0 0 0 0 0 1 0 0 0
9 0 0 0 0 0 0 0 0 0 0
内存使用率:
In [50]: (d2 - d1).memory_usage()
Out[50]:
Index 80
0 16
1 0
2 8
3 16
4 0
5 0
6 16
7 16
8 8
9 0
dtype: int64
PS如果你不能一次构建整个SparseDataFrame(因为内存限制),你可以使用类似于这个答案中使用的方法