TensorFlow Seq2Seq 模型输出相同的输出



我正在开发一个编码器-解码器模型,以预测讲座记录的标题。 但是,无论输入是什么,该模型都会预测相同的标题。知道是什么导致了这样的问题吗?

如果你想解决这个问题,我强烈建议你提供你的代码作为例子,最好包括你的损失、准确性或人们更熟悉你的问题。但是,这里有一些会遇到这个问题的情况:1(你的代码没有以某种方式做你想做的事情2(LSTM有时会遇到梯度爆炸或梯度消失问题,尽管据说可以解决RNN结构将面临的那些问题,但无论如何,它仍然会时不时地遇到这个问题。3(忘记在训练前打数据集,这会让你的模型一直学习一种相同的模式。如果上面提到的所有内容都不适合您的情况,请尝试提供您的代码和数据集信息以使其清晰。

相关内容

  • 没有找到相关文章

最新更新