我正在为NMF文本数据聚类实现一个Python脚本。在我的工作中,我正在使用Scikit NMF实现,但是据我了解,在Scikit NMF中,NMF更像是分类方法而不是聚类方法。
我开发了一个简单的脚本来处理一些示例北极。我正在对它们进行预处理并作为 NMF 的输入。根据我的教授分享的论文,我收到了一些集群,但我不知道如何可视化/呈现它们。
你们中有人知道如何使这本书对人类友好阅读吗?:)
主脚本代码如下:
from sklearn.feature_extraction.text import TfidfVectorizer, CountVectorizer
from sklearn.cluster import KMeans
from sklearn.preprocessing import normalize
from sklearn.decomposition import LatentDirichletAllocation, NMF
from sklearn.preprocessing import normalize
import pandas as pd
from preprocess import *
# loading data
raw_text_data = loading_bbc_datasets(5)
text_data = text_preparing(raw_text_data)
tf_vectorizer = TfidfVectorizer()
Y = tf_vectorizer.fit_transform(text_data)
Y_norm = normalize(Y)
nmf = NMF(n_components=5, random_state=1, alpha=.1, l1_ratio=0.5)
A = nmf.fit_transform(Y_norm)
X = nmf.components_
features = tf_vectorizer.get_feature_names()
print(features)
AF = pd.DataFrame(Y_norm.toarray())
WF = pd.DataFrame(A)
HF = pd.DataFrame(X)
AF.to_csv('Y.csv', sep=',', header=features)
WF.to_csv('A.csv', sep=',', header=['C1', 'C2', 'C3', 'C4', 'C5'])
HF.to_csv('X.csv', sep=',', header=features)
NMF 不是一种分类方法,而是一种降维方法。当您使用 CountVectorizer
处理文本时,您拥有大量维度,NMF 允许减少它。
NMF 近似文档*项矩阵 X:W * H。
新维度可以被视为主题,因此对于给定的文档,您可以在 W 中看到文档最属于哪些主题,因为这些值是非负的(如果值很高,则文档与主题高度相关)。
同样,对于给定的主题,您可以使用 H 获取与其高度相关的单词。
要回答您的问题,您可以将文档聚类到主题中,并通过提供最相关的单词以人性化的方式表示每个主题。