张量流扩展 |Trainer Not Warm Start with GenericExecutor & Keras Model



我目前正试图让TFX管道的Trainer组件从同一管道的前一次运行开始预热。用例是:

  1. 运行管道一次,生成一个模型
  2. 当新数据进入时,使用新数据训练现有模型

我知道ResolverNode组件是为此目的而设计的,所以您可以在下面看到我如何使用它:

# detect the previously trained model
latest_model_resolver = ResolverNode(
instance_name='latest_model_resolver',
resolver_class=latest_artifacts_resolver.LatestArtifactsResolver,
latest_model=Channel(type=Model))
context.run(latest_model_resolver)
# set prior model as base_model
train_file = 'tfx_modules/recommender_train.py'
trainer = Trainer(
module_file=os.path.abspath(train_file),
custom_executor_spec=executor_spec.ExecutorClassSpec(GenericExecutor),
transformed_examples=transform.outputs['transformed_examples'],
transform_graph=transform.outputs['transform_graph'],
schema=schema_gen.outputs['schema'],
train_args=trainer_pb2.TrainArgs(num_steps=10000),
eval_args=trainer_pb2.EvalArgs(num_steps=5000),
base_model=latest_model_resolver.outputs['latest_model'])

上面的组件成功运行,ResolverNode能够从之前的管道运行中检测到最新的模型。没有抛出错误——但是,当运行context.run(trainer)时,模型丢失基本上从第一次开始的地方开始。在该模型的第一次跑步后,它完成了约0.1的训练损失,然而,在第二次跑步时(假设是热启动(,它重新开始了约18.2。

这让我相信所有权重都被重新初始化了,我认为这不应该发生。以下是相关的模型构建功能:

def build_keras_model():
"""build keras model"""
embedding_max_values = load(open(os.path.abspath('tfx-example/user_artifacts/embedding_max_dict.pkl'), 'rb'))
embedding_dimensions = dict([(key, 20) for key in embedding_max_values.keys()])
embedding_pairs = [recommender.EmbeddingPair(embedding_name=feature,
embedding_dimension=embedding_dimensions[feature],
embedding_max_val=embedding_max_values[feature])
for feature in recommender_constants.univalent_features]
numeric_inputs = []
for num_feature in recommender_constants.numeric_features:
numeric_inputs.append(keras.Input(shape=(1,), name=num_feature))
input_layers = numeric_inputs + [elem for pair in embedding_pairs for elem in pair.input_layers]
pre_concat_layers = numeric_inputs + [elem for pair in embedding_pairs for elem in pair.embedding_layers]
concat = keras.layers.Concatenate()(pre_concat_layers) if len(pre_concat_layers) > 1 else pre_concat_layers[0]
layer_1 = keras.layers.Dense(64, activation='relu', name='layer1')(concat)
output = keras.layers.Dense(1, kernel_initializer='lecun_uniform', name='out')(layer_1)
model = keras.models.Model(input_layers, outputs=output)
model.compile(optimizer='adam', loss='mean_squared_error')
return model
def run_fn(fn_args: TrainerFnArgs):
"""function for the Trainer component"""
tf_transform_output = tft.TFTransformOutput(fn_args.transform_output)
train_dataset = _input_fn(fn_args.train_files, fn_args.data_accessor,
tf_transform_output, 40)
eval_dataset = _input_fn(fn_args.eval_files, fn_args.data_accessor,
tf_transform_output, 40)
model = build_keras_model()
tensorboard_callback = tf.keras.callbacks.TensorBoard(
log_dir=fn_args.model_run_dir, update_freq='epoch', histogram_freq=1,
write_images=True)
model.fit(train_dataset, steps_per_epoch=fn_args.train_steps, validation_data=eval_dataset,
validation_steps=fn_args.eval_steps, callbacks=[tensorboard_callback],
epochs=5)
signatures = {
'serving_default':
_get_serve_tf_examples_fn(model, tf_transform_output).get_concrete_function(tf.TensorSpec(
shape=[None],
dtype=tf.string,
name='examples')
)
}
model.save(fn_args.serving_model_dir, save_format='tf', signatures=signatures)

为了研究这个问题,我仔细阅读了:

来自TFX的热启动示例https://github.com/tensorflow/tfx/blob/master/tfx/examples/chicago_taxi_pipeline/taxi_pipeline_warmstart.py

但是,本指南使用Estimator组件,而不是Keras组件。该组件有一个warm_start_from初始化参数,我找不到Keras等效的参数。

我怀疑:

  1. 热启动功能仅适用于Estimator组件,即使为Keras组件设置了base_model,也不会生效。

  2. 我以某种方式告诉模型,即使在成功加载之前的模型后,也要重新初始化权重——在这种情况下,我会喜欢一个指针来指示发生这种情况的位置。

任何帮助都会很棒!非常感谢。

对于Keras模型,您必须首先使用基本模型路径加载模型,然后您可以从那里继续训练,而不是构建新模型。

您的Trainer组件看起来是正确的,但在run_fn中执行以下操作:

def run_fn(fn_args: FnArgs):
model = tf.keras.models.load_model(fn_args.base_model)
model.fit(train_dataset, steps_per_epoch=fn_args.train_steps, validation_data=eval_dataset,
validation_steps=fn_args.eval_steps, callbacks=[tensorboard_callback],
epochs=5)

最新更新