多层感知器,用Python可视化决策边界(2D)



我编写了一个用于二元分类的多层感知程序。根据我的理解,一个隐藏层可以用一行作为决策边界来表示(每个隐藏神经元一行)。这很有效,并且可以很容易地在训练后使用生成的权重来绘制。

然而,随着更多的图层添加,我不确定使用什么方法,可视化部分很少在教科书中处理。我想知道,是否有一种直接的方法将权重矩阵从不同的层转换到这个非线性决策边界(假设2D输入)?

许多谢谢,

绘制决策边界的方法之一(对于线性或非线性分类器)是在均匀网格中采样点并将其提供给分类器。假设X是您的数据,您可以创建如下统一的点网格:

h = .02  # step size in the mesh
x_min, x_max = X[:, 0].min() - 1, X[:, 0].max() + 1
y_min, y_max = X[:, 1].min() - 1, X[:, 1].max() + 1
xx, yy = np.meshgrid(np.arange(x_min, x_max, h),
                     np.arange(y_min, y_max, h))

然后,你将这些坐标输入感知器以捕获它们的预测:

Z = clf.predict(np.c_[xx.ravel(), yy.ravel()])

假设clf是您的感知机,np.c_从均匀采样的点创建特征,将它们提供给分类器,并在Z中捕获它们的预测。

最后,将决策边界绘制为等高线图(使用matplotlib):

Z = Z.reshape(xx.shape)
plt.contourf(xx, yy, Z, cmap=plt.cm.Paired, alpha=0.8)

还可以选择绘制数据点:

plt.scatter(X[:, 0], X[:, 1], c=y, cmap=plt.cm.Paired)

完整的工作示例,示例归功于scikit-learn(顺便说一句,这是一个很好的机器学习库,实现了一个完全工作的感知器)。

最新更新