在sklearn.feature_extraction.text.TfidfVectorizer
中,我们可以使用模型的vocabulary
参数注入我们自己的词汇表。但在这种情况下,模型只使用我自己选择的单词。
我想在我的自定义词汇表中使用自动检测的功能。
解决这个问题的一种方法是创建模型并使用获取特征
vocab=vectorizer.get_feature_names()
在vocab 上添加我的列表
vocab + vocabulary
并再次构建模型。
有没有一种方法可以在一个步骤中完成整个过程?
我认为没有比这更简单的方法可以实现你想要的。您可以做的一件事是使用CountVectorizer的代码来创建词汇表。我浏览了源代码,方法是
_count_vocab(self, raw_documents, fixed_vocab)
用CCD_ 3调用。
因此,我建议您在运行TfidfVectorizer
之前调整以下代码(Source)以创建词汇表。
def _count_vocab(self, raw_documents, fixed_vocab):
"""Create sparse feature matrix, and vocabulary where fixed_vocab=False
"""
if fixed_vocab:
vocabulary = self.vocabulary_
else:
# Add a new value when a new vocabulary item is seen
vocabulary = defaultdict()
vocabulary.default_factory = vocabulary.__len__
analyze = self.build_analyzer()
j_indices = _make_int_array()
indptr = _make_int_array()
indptr.append(0)
for doc in raw_documents:
for feature in analyze(doc):
try:
j_indices.append(vocabulary[feature])
except KeyError:
# Ignore out-of-vocabulary items for fixed_vocab=True
continue
indptr.append(len(j_indices))
if not fixed_vocab:
# disable defaultdict behaviour
vocabulary = dict(vocabulary)
if not vocabulary:
raise ValueError("empty vocabulary; perhaps the documents only"
" contain stop words")
j_indices = frombuffer_empty(j_indices, dtype=np.intc)
indptr = np.frombuffer(indptr, dtype=np.intc)
values = np.ones(len(j_indices))
X = sp.csr_matrix((values, j_indices, indptr),
shape=(len(indptr) - 1, len(vocabulary)),
dtype=self.dtype)
X.sum_duplicates()
return vocabulary, X