在TensorFlow中使用LSTM分布式培训



lstm是算法还是节点?如果在模型中使用它,如果我使用分布式培训,反向传播会发生冲突吗?

lstm都不是。这是一个经常性的神经网络(请参阅此帖子)。在TensorFlow方面,您可能会感到困惑,因为有一个 cell (例如BasicLSTMCell)的概念,这基本上是一个工厂,用于创建形成一层或几层的单元格。最后,所有这些都转化为计算图中的节点。您可以在此笔记本中找到一个很好的用法示例。顺便说一句,用于培训的算法是相同的 - backprop

现在,关于分布式培训,有两种并行性类型:数据和模型并行性,并且它们都没有破坏反向的。唯一的例外可能是与异步更新有关的数据并行性,这确实需要某些技巧才能工作,但是在TensorFlow中没有对其的一流支持。我认为您使用更简单的方法来分发模型更好(请参阅此帖子)。因此,答案很可能是:否,反向产品会正常工作。

最新更新