Tensorflow unreused Variable Scope



我写了如下代码,但我不确定这些全连接层是否共享相同的变量。

with tf.variable_scope("loss"):
_loss= tf.map_fn(lambda x: tf.contrib.layers.fully_connected(x, output_size), x_list) 

这些全连接层是否共享相同的变量?

tf.map_fnop 的行为类似于 Python 原生map函数。所以这里列表的所有元素都暴露给全连接层的相同参数(共享参数(。

最新更新