tf.GradientTape和反投影之间的差异.GradientTape



当查看Tensorflow 1.15中的OptimizerV2代码时,我注意到他们使用backprop.GradientTape来计算梯度。

我找不到任何关于这门课的在线参考资料,只有tf.GradientTape。两者之间有什么区别?

没有区别,是同一类:

@tf_export("GradientTape", "autodiff.GradientTape", v1=["GradientTape"])
class GradientTape(object):
...

TensorFlow内部通常不使用公共的API,直接导入其他内部模块。

最新更新