我使用python3中的Tensorflow keras库进行未知文本大小的文本摘要。
我使用这个链接中的代码解释文本摘要。但看起来代码已经设置了要汇总的输入文本的最大大小,因为它已经知道要汇总的文本大小。但如果我不知道呢?我的意思是,如果我必须为许多文本做总结,而我不知道它们的总大小??
错误文本太长,所以我没有成功地找到与我的案例相关的东西。
所以错误是:
indices[0,0] = 30不在[0,13)[[node]中Model_2/embedding_1/embedding_lookup(定义于C:Usersf_pcDesktop class_python.py: 314)]][Op: __inference_predict_function_19765]
错误可能是由输入操作引起的。输入源与节点model_2/embedding_1/embedding_lookup相关的操作:Model_2/embedding_1/embedding_lookup/19252(定义在D: obj 37 amd64_release windows版本 msi_python zip_amd64 contextlib.py: 112)
函数调用栈:predict_function
I was trying also by
max_text_len=800
max_summary_len=500
但是把这个大小加起来,分析时间增加了但是还有
encoder_inputs = Input(shape=(max_len_text,))
所以必须设置max_len_text
.
从(Bahdanau et al., 2015)中我可以看到,注意层的输入长度没有限制。其余部分只收集LSTM中间状态,它也不应该依赖于输入长度。
您是否尝试在推理期间设置与模型构建期间不同的max_len_text
?(为每个推理动态设置它,即为你正在总结的每个输入文本)