解释反向传播算法Bishop代码



我最近在Coursera上完成了NG教授的机器学习课程,但是我在理解反向传播算法方面有一些问题。因此,我尝试使用Sigmoid函数读取Bishop代码以进行反向传播。我搜索并找到了干净的代码,这些代码试图解释反向传播的作用,但在理解代码方面仍然存在问题

任何人都可以向我解释什么真正的反向传播?还为我解释代码吗?

这是我在github中发现的代码,我在

之前提到了它。

您有网络错误。反向传播的第一步是计算网络中每个神经元的内gui感。您的目标是将错误描述为权重的依赖性(您可以更改的参数)。因此BackProp方程是部分推导误差/权重。

第一步:错误信号=(所需结果 - 输出神经元的输出)x衍生活化(x)其中x是输出神经元的输入。这是输出神经元的内gui的一部分。

下一步是对隐藏单位的一部分内gui感。此步骤的第一部分是将隐藏单元与下一层单元连接的下一层X权重的错误信号汇总。休息是激活函数的部分推导。错误信号= sum(nextLayerError x重量)x衍生活化(x)。

最后一步是重量的改编。

wij = errorsignal_i x Learning_rate x output_of_neuron_j

我在MATLAB中对BP的实施nn

最新更新