我正在实现DDPG。我需要计算一个自定义梯度(演员权重的梯度,它最大化了批评者的输出(,然后用优化器应用它。但是,由于某种原因,当我尝试运行它时,我收到一个神秘的类型错误。
我尝试查看其他教程并搜索堆栈溢出,但找不到如何解决错误。
这是一个得到错误的示例代码(实际计算更复杂,但得到相同形式的答案(:
actor = Sequential()
actor.add(Dense(2, input_shape=(6,)))
# actor_inputs is randomly sampled
sess = K.get_session()
grad_op = K.gradients(actor.output, actor.trainable_weights)
grads = sess.run(grad_op, feed_dict={actor.input: actor_inputs})
opt = tf.keras.optimizers.Adam(lr=1e-4)
opt.apply_gradients(zip(grads, actor.trainable_weights))
由此计算的梯度似乎是正确的。我希望优化器将其应用于网络,但在apply_gradients
调用中出现以下错误:
Tensor conversion requested dtype float32_ref for Tensor with dtype float32: 'Tensor("Adam_24/dense_95/kernel/m/Initializer/zeros:0", shape=(6, 2), dtype=float32)'
以下是相关数据的一些测试打印的结果:
print(actor_inputs)
:
[[-0.43979521 0. -1.28554755 0. 0.94703663 -0.32112555]]
print(grad_op)
:
[<tf.Tensor 'gradients_2/dense_95/MatMul_grad/MatMul_1:0' shape=(6, 2) dtype=float32>, <tf.Tensor 'gradients_2/dense_95/BiasAdd_grad/BiasAddGrad:0' shape=(2,) dtype=float32>]
print(grads)
:
[array([[ 3.003665 , 3.003665 ],
[ 0. , 0. ],
[-2.2157073 , -2.2157073 ],
[ 0. , 0. ],
[-0.8517535 , -0.8517535 ],
[ 0.52394277, 0.52394277]], dtype=float32), array([1., 1.], dtype=float32)]
print(actor.trainable_weights)
:
[<tf.Variable 'dense_95/kernel:0' shape=(6, 2) dtype=float32_ref>, <tf.Variable 'dense_95/bias:0' shape=(2,) dtype=float32_ref>]
正如错误所表明的那样,apply_gradients
期望毕业生float32_ref
而不是float32
。
可能有多种方法可以通过显式转换来解决此问题,但将grads
或grad_op
分配给 tf。变量可能会解决问题。
这样做应该会进行转换,但您可以在分配tf.Variable
时指定dtype=float32_ref
以确保。
这是一篇关于两者之间区别的文章。