从python API中提取(或设置)输入/输出TF张量名称信息,而不是saved_model_cli



我用Keras/TF2.5训练了一个简单的模型,并将其保存为已保存模型。

tf.saved_model.save(my_model,'/path/to/model')

如果通过

检查
saved_model_cli show --dir /path/to/model --tag_set serve --signature_def serving_default

我得到这些输出/名称:

inputs['conv2d_input'] tensor_info:
dtype: DT_FLOAT
shape: (-1, 32, 32, 1)
name: serving_default_conv2d_input:0
outputs['dense'] tensor_info:
dtype: DT_FLOAT
shape: (-1, 2)
name: StatefulPartitionedCall:0

名称serving_default_conv2d_inputStatefulPartitionedCall实际上可以用于推理。

我想用python API提取它们。如果我通过加载模型来查询它:

>>> m=tf.saved_model.load('/path/to/model')
>>> m.signatures['serving_default'].inputs[0].name
'conv2d_input:0'
>>> m.signatures['serving_default'].outputs[0].name
'Identity:0'

我得到了完全不同的名字

问题:

  1. 我如何从python API提取这些名称serving_default_conv2d_inputStatefulPartitionedCall?
  2. 或者当我调用tf.saved_model.save时,我如何定义/修复名称?
  3. :0是什么意思?

边题:

如何通过SavedModel将TF模型部署到生产环境?

saved_model_cli显示的输入/输出张量名称可提取如下:

from tensorflow.python.tools import saved_model_utils
saved_model_dir = '/path/to/model'
tag_set = 'serve'
signature_def_key = 'serving_default'
# 1. Load MetaGraphDef with saved_model_utils
meta_graph_def = saved_model_utils.get_meta_graph_def(saved_model_dir, tag_set)
# 2. Get input signature names
input_signatures = list(meta_graph_def.signature_def[signature_def_key].inputs.values())
input_names = [signature.name for signature in input_signatures]
print(input_names)  # ['serving_default_conv2d_input:0']
# 3. Get output signature names
output_signatures = list(meta_graph_def.signature_def[signature_def_key].outputs.values())
output_names = [signature.name for signature in output_signatures]
print(output_names)  # ['StatefulPartitionedCall:0']

对于:0的含义,op_name:0表示"操作op_name的第0个输出的张量"。因此,您可以使用…:1来获得具有多个输出的操作的输出,但许多操作是单输出的,因此您将始终使用…:0来获取它们(来源:@mrry的评论)。

相关内容

  • 没有找到相关文章

最新更新