我有一组单词,我必须检查它们是否存在文档中。
WordList = [w1, w2, ..., wn]
另一组具有文档列表,我必须检查这些单词是否存在。
如何使用scikit-learn CountVectorizer
,以便术语文档矩阵的特征仅是来自 WordList
的单词,每行代表每个特定文档,而无时间在其各自的列中出现的单词出现在其各自的列中?
对于自定义文档,您可以使用count vectorizer方法
from sklearn.feature_extraction.text import CountVectorizer
vectorizer = CountVectorizer() #make object of Count Vectorizer
corpus = [
'This is a cat.',
'It likes to roam in the garden',
'It is black in color',
'The cat does not like the dog.',
]
X = vectorizer.fit_transform(corpus)
#print(X) to see count given to words
vectorizer.get_feature_names() == (
['cat', 'color', 'roam', 'The', 'garden',
'dog', 'black', 'like', 'does', 'not',
'the', 'in', 'likes'])
X.toarray()
#used to convert X into numpy array
vectorizer.transform(['A new cat.']).toarray()
# Checking it for a new document
其他矢量器也可以像tfidf vectorizer一样使用。TFIDF vectorizer是一种更好的方法,因为它不仅提供了特定文档中单词的数量,而且还讲述了单词的重要性。
它是通过查找TF-项频率和IDF-反向文档频率来计算的。
术语freq是特定文档中单词出现的次数,而IDF是根据文档上下文计算的。例如,如果文档与足球有关,那么"梅西"一词"不会给出任何见解,但"梅西"一词会讲述文档的上下文。它是通过记录发生数量来计算的。例如。tf(")= 10 TF(" Messi")= 5
idf("the") = log(10) = 0
idf("messi") = log(5) = 0.52
tfidf("the") = tf("the") * idf("the") = 10 * 0 = 0
tfidf("messi") = 5 * 0.52 = 2.6
这些权重有助于算法从文档中识别出的重要单词,后来有助于从文档中得出语义。
好。我得到它。代码如下:
from sklearn.feature_extraction.text import CountVectorizer
# Counting the no of times each word(Unigram) appear in document.
vectorizer = CountVectorizer(input='content',binary=False,ngram_range=(1,1))
# First set the vocab
vectorizer = vectorizer.fit(WordList)
# Now transform the text contained in each document i.e list of text
Document:list
tfMatrix = vectorizer.transform(Document_List).toarray()
这将仅输出仅具有WordList的功能的术语文档矩阵。