我写了如下代码,但我不确定这些全连接层是否共享相同的变量。
with tf.variable_scope("loss"):
_loss= tf.map_fn(lambda x: tf.contrib.layers.fully_connected(x, output_size), x_list)
这些全连接层是否共享相同的变量?
tf.map_fn
op 的行为类似于 Python 原生map
函数。所以这里列表的所有元素都暴露给全连接层的相同参数(共享参数(。