CLDNN的尺寸降低(张量)



我正在尝试用TensorFlow编写CLDNN的实现,就像该方案中的一个一样。我对降低层有问题。

据我了解,

它是由几台堆叠限制的玻尔兹曼机器(RBMS)制成的,并且像自动编码器一样工作。该层的解码器部分仅在这里训练编码器以减少井尺寸。这意味着您想将编码器的输出"插入"到下一层的输入中。

我可以定义一个将训练自动编码器的损失函数(通过比较解码输出的输入),以及将训练整个图的其他损耗函数。我有办法训练这两个损失功能吗?或者,也许我在这里误解了这个问题,但是对我来说,自动编码器的解码器部分有点"在循环外",并且不会受到训练。

我发现了这种自动编码器和卷积层等的实现...但是我真的不明白如何在网络中"插入"自动编码器(如计划中的)

纸说

计算网络工具包(CNTK)[24]用于神经网络培训。正如[14]所表明的那样,我们对所有层都施加了均匀的随机重量初始化,而没有生成或歧视性预处理[1]。

缩小图只是一个密集的投影层。因此,他们不训练任何自动编码器,他们只是配置网络体系结构并从随机初始状态训练网络。

自动编码器以前用于子网初始化,但现在并不是很受欢迎。

相关内容

  • 没有找到相关文章

最新更新