每次在Python scikit-learn中运行时聚类结果的变化



我有一堆句子,我想使用scikit-learn光谱聚类对它们进行聚类。我已经运行了代码并毫无问题地获得了结果。但是,每次运行它时,我都会得到不同的结果。我知道这是启动的问题,但我不知道如何解决它。这是我在句子上运行的代码的一部分:

vectorizer = TfidfVectorizer(norm='l2',sublinear_tf=True,tokenizer=tokenize,stop_words='english',charset_error="ignore",ngram_range=(1, 5),min_df=1)
X = vectorizer.fit_transform(data)
# connectivity matrix for structured Ward
connectivity = kneighbors_graph(X, n_neighbors=5)
# make connectivity symmetric
connectivity = 0.5 * (connectivity + connectivity.T)
distances = euclidean_distances(X)
spectral = cluster.SpectralClustering(n_clusters=number_of_k,eigen_solver='arpack',affinity="nearest_neighbors",assign_labels="discretize")
spectral.fit(X)

数据是句子列表。每次代码运行时,我的聚类分析结果都会有所不同。如何使用光谱聚类获得一致的结果。我对Kmean也有同样的问题。这是我的Kmean代码:

vectorizer = TfidfVectorizer(sublinear_tf=True,stop_words='english',charset_error="ignore")
X_data = vectorizer.fit_transform(data)
km = KMeans(n_clusters=number_of_k, init='k-means++', max_iter=100, n_init=1,verbose=0)
km.fit(X_data)

感谢您的帮助。

使用 k 均值时,您希望在KMeans中设置 random_state 参数(请参阅文档(。将其设置为 int 或 RandomState 实例。

km = KMeans(n_clusters=number_of_k, init='k-means++', 
            max_iter=100, n_init=1, verbose=0, random_state=3425)
km.fit(X_data)

这很重要,因为 k 均值不是确定性算法。它通常从一些随机初始化过程开始,这种随机性意味着不同的运行将从不同的点开始。为伪随机数生成器设定种子可确保相同种子的这种随机性始终相同。

不过,我不确定频谱聚类示例。来自有关 random_state 参数的文档:"伪随机数生成器,用于在eigen_solver == 'amg'时初始化 lobpcg 特征向量分解,并通过 K-Means 初始化。OP 的代码似乎不包含在这些情况下,尽管设置参数可能值得一试。

正如其他人已经指出的,k-means通常通过随机初始化来实现。这是有意为之,你可以得到不同的结果。

该算法只是启发式算法。它可能会产生次优结果。多次运行它可以让您有更好的机会找到一个好的结果。

在我看来,当结果因运行而异时,这表明数据与 k 均值根本没有很好地聚类。在这种情况下,您的结果并不比随机好多少。如果数据确实适合 k 均值聚类,则结果将相当稳定!如果它们不同,则聚类的大小可能不同,或者可能没有很好地分离;和其他算法可能会产生更好的结果。

我遇到了类似的问题,但我希望来自另一个发行版的数据集以与原始数据集相同的方式进行聚类。例如,原始数据集的所有彩色图像都在cluster 0中,原始数据集的所有灰色图像都在cluster 1中。对于另一个数据集,我希望彩色图像/灰色图像也处于cluster 0cluster 1中。

这是我从 Kaggler 那里窃取的代码 - 除了将random_state设置为种子之外,您还可以使用 KMeans 返回的 k 均值模型对其他数据集进行聚类。这相当有效。但是,我找不到官方scikit-Learn文件这么说。

# reference - https://www.kaggle.com/kmader/normalizing-brightfield-stained-and-fluorescence
from sklearn.cluster import KMeans
seed = 42
def create_color_clusters(img_df,  cluster_count = 2, cluster_maker=None):
    if cluster_maker is None:
        cluster_maker = KMeans(cluster_count, random_state=seed)
        cluster_maker.fit(img_df[['Green', 'Red-Green', 'Red-Green-Sd']])
    img_df['cluster-id'] = np.argmin(cluster_maker.transform(img_df[['Green', 'Red-Green', 'Red-Green-Sd']]),-1)

    return img_df, cluster_maker
# Now K-Mean your images `img_df` to two clusters
img_df, cluster_maker = create_color_clusters(img_df, 2)
# Cluster another set of images using the same kmean-model
another_img_df, _ = create_color_clusters(another_img_df, 2, cluster_maker)

但是,即使将random_state设置为int seed也无法确保相同的数据始终以相同的顺序在计算机之间分组。相同的数据可以在一台计算机上作为group 0进行群集,在另一台计算机上作为group 1进行群集。但至少使用相同的K-Means模型(在我的代码中cluster_maker(,我们确保来自另一个分布的数据将以与原始数据集相同的方式进行聚类。

通常,

在运行具有许多局部最小值的算法时,通常会采用随机方法并使用不同的初始状态多次运行算法。这将为您提供多个结果,并且通常选择误差最小的一个作为最佳结果。

当我使用K-Means时,我总是运行几次并使用最佳结果。

最新更新