如何应用自定义渐变:类型转换错误



我正在实现DDPG。我需要计算一个自定义梯度(演员权重的梯度,它最大化了批评者的输出(,然后用优化器应用它。但是,由于某种原因,当我尝试运行它时,我收到一个神秘的类型错误。

我尝试查看其他教程并搜索堆栈溢出,但找不到如何解决错误。

这是一个得到错误的示例代码(实际计算更复杂,但得到相同形式的答案(:

actor = Sequential()
actor.add(Dense(2, input_shape=(6,)))
# actor_inputs is randomly sampled
sess = K.get_session()
grad_op = K.gradients(actor.output, actor.trainable_weights)
grads = sess.run(grad_op, feed_dict={actor.input: actor_inputs})
opt = tf.keras.optimizers.Adam(lr=1e-4)
opt.apply_gradients(zip(grads, actor.trainable_weights))

由此计算的梯度似乎是正确的。我希望优化器将其应用于网络,但在apply_gradients调用中出现以下错误:

Tensor conversion requested dtype float32_ref for Tensor with dtype float32: 'Tensor("Adam_24/dense_95/kernel/m/Initializer/zeros:0", shape=(6, 2), dtype=float32)'

以下是相关数据的一些测试打印的结果:

print(actor_inputs)

[[-0.43979521  0.         -1.28554755  0.          0.94703663 -0.32112555]]

print(grad_op)

[<tf.Tensor 'gradients_2/dense_95/MatMul_grad/MatMul_1:0' shape=(6, 2) dtype=float32>, <tf.Tensor 'gradients_2/dense_95/BiasAdd_grad/BiasAddGrad:0' shape=(2,) dtype=float32>]

print(grads)

[array([[ 3.003665  ,  3.003665  ],
       [ 0.        ,  0.        ],
       [-2.2157073 , -2.2157073 ],
       [ 0.        ,  0.        ],
       [-0.8517535 , -0.8517535 ],
       [ 0.52394277,  0.52394277]], dtype=float32), array([1., 1.], dtype=float32)]

print(actor.trainable_weights)

[<tf.Variable 'dense_95/kernel:0' shape=(6, 2) dtype=float32_ref>, <tf.Variable 'dense_95/bias:0' shape=(2,) dtype=float32_ref>]

正如错误所表明的那样,apply_gradients期望毕业生float32_ref而不是float32

可能有多种方法可以通过显式转换来解决此问题,但将gradsgrad_op分配给 tf。变量可能会解决问题。

这样做应该会进行转换,但您可以在分配tf.Variable时指定dtype=float32_ref以确保。

这是一篇关于两者之间区别的文章。

最新更新