在scikit learn中添加自建词汇



sklearn.feature_extraction.text.TfidfVectorizer中,我们可以使用模型的vocabulary参数注入我们自己的词汇表。但在这种情况下,模型只使用我自己选择的单词。

我想在我的自定义词汇表中使用自动检测的功能。

解决这个问题的一种方法是创建模型并使用获取特征

vocab=vectorizer.get_feature_names()

在vocab 上添加我的列表

vocab + vocabulary

并再次构建模型。

有没有一种方法可以在一个步骤中完成整个过程?

我认为没有比这更简单的方法可以实现你想要的。您可以做的一件事是使用CountVectorizer的代码来创建词汇表。我浏览了源代码,方法是

_count_vocab(self, raw_documents, fixed_vocab)

用CCD_ 3调用。

因此,我建议您在运行TfidfVectorizer之前调整以下代码(Source)以创建词汇表。

def _count_vocab(self, raw_documents, fixed_vocab):
        """Create sparse feature matrix, and vocabulary where fixed_vocab=False
        """
        if fixed_vocab:
            vocabulary = self.vocabulary_
        else:
            # Add a new value when a new vocabulary item is seen
            vocabulary = defaultdict()
            vocabulary.default_factory = vocabulary.__len__
        analyze = self.build_analyzer()
        j_indices = _make_int_array()
        indptr = _make_int_array()
        indptr.append(0)
        for doc in raw_documents:
            for feature in analyze(doc):
                try:
                    j_indices.append(vocabulary[feature])
                except KeyError:
                    # Ignore out-of-vocabulary items for fixed_vocab=True
                    continue
            indptr.append(len(j_indices))
        if not fixed_vocab:
            # disable defaultdict behaviour
            vocabulary = dict(vocabulary)
            if not vocabulary:
                raise ValueError("empty vocabulary; perhaps the documents only"
                                 " contain stop words")
        j_indices = frombuffer_empty(j_indices, dtype=np.intc)
        indptr = np.frombuffer(indptr, dtype=np.intc)
        values = np.ones(len(j_indices))
        X = sp.csr_matrix((values, j_indices, indptr),
                          shape=(len(indptr) - 1, len(vocabulary)),
                          dtype=self.dtype)
        X.sum_duplicates()
        return vocabulary, X

相关内容

  • 没有找到相关文章

最新更新