未知目标文本大小的文本摘要



我使用python3中的Tensorflow keras库进行未知文本大小的文本摘要。

我使用这个链接中的代码解释文本摘要。但看起来代码已经设置了要汇总的输入文本的最大大小,因为它已经知道要汇总的文本大小。但如果我不知道呢?我的意思是,如果我必须为许多文本做总结,而我不知道它们的总大小??

错误文本太长,所以我没有成功地找到与我的案例相关的东西。

所以错误是:

indices[0,0] = 30不在[0,13)[[node]中Model_2/embedding_1/embedding_lookup(定义于C:Usersf_pcDesktop class_python.py: 314)]][Op: __inference_predict_function_19765]

错误可能是由输入操作引起的。输入源与节点model_2/embedding_1/embedding_lookup相关的操作:Model_2/embedding_1/embedding_lookup/19252(定义在D: obj 37 amd64_release windows版本 msi_python zip_amd64 contextlib.py: 112)

函数调用栈:predict_function

I was trying also by

max_text_len=800
max_summary_len=500

但是把这个大小加起来,分析时间增加了但是还有

encoder_inputs = Input(shape=(max_len_text,)) 

所以必须设置max_len_text.

从(Bahdanau et al., 2015)中我可以看到,注意层的输入长度没有限制。其余部分只收集LSTM中间状态,它也不应该依赖于输入长度。

您是否尝试在推理期间设置与模型构建期间不同的max_len_text?(为每个推理动态设置它,即为你正在总结的每个输入文本)

最新更新