我正在尝试使用scikitlearn的DPGMM分类器对一些模拟数据进行建模,但是性能很差。这是我使用的示例:
from sklearn import mixture
import numpy as np
import matplotlib.pyplot as plt
clf = mixture.DPGMM(n_components=5, init_params='wc')
s = 0.1
a = np.random.normal(loc=1, scale=s, size=(1000,))
b = np.random.normal(loc=2, scale=s, size=(1000,))
c = np.random.normal(loc=3, scale=s, size=(1000,))
d = np.random.normal(loc=4, scale=s, size=(1000,))
e = np.random.normal(loc=7, scale=s*2, size=(5000,))
noise = np.random.random(500)*8
data = np.hstack([a,b,c,d,e,noise]).reshape((-1,1))
clf.means_ = np.array([1,2,3,4,7]).reshape((-1,1))
clf.fit(data)
labels = clf.predict(data)
plt.scatter(data.T, np.random.random(len(data)), c=labels, lw=0, alpha=0.2)
plt.show()
我认为这正是高斯混合模型可以解决的问题。我尝试过使用 alpha,使用 gmm 而不是 dpgmm,更改起始组件的数量等。我似乎无法获得可靠和准确的分类。我只是缺少什么吗?有没有另一种模式更合适?
因为你没有迭代足够长的时间让它收敛。
检查的值
clf.converged_
并尝试将n_iter
增加到1000
。
但是请注意,恕我直言,DPGMM
在此数据集上仍然惨遭失败,最终将集群数量减少到仅 2 个。