在解码过程中使用 TensorFlow 的 seq2seq 示例代码提取注意力矩阵



似乎使用()方法用于计算seq2seq_model.py代码在示例中的seq2Seq_model.py代码中的注意力掩码,在解码过程中未调用序列到序列代码的tensorflow代码。

有人知道如何解决这个问题吗?这里提出了一个类似的问题:可视化张力流中的注意力激活,但我尚不清楚如何在解码过程中获取矩阵。

谢谢!

为什么需要掩码?如果只是为了可视化,您可能需要通过张量并在会话运行中获取它,我想。

相关内容

  • 没有找到相关文章

最新更新