我正在尝试将我以前的 tf1 代码迁移到 tf2。不幸的是,我的代码没有处于急切模式,所以我遇到了更多困难。我执行了以下代码(尚未训练(,并输入了错误消息:
Traceback (most recent call last):
training_op = tf.assign(W, W - learning_rate * gradients)
AttributeError: module 'tensorflow' has no attribute 'assign'
这是我的最低代码示例PS:它必须处理复数!
# Data pre-processing
m = 50
n = 20
x_train, y_train, x_test, y_test = get_my_data(x, y, m, n) # data x of size mxn
# Network Declaration
input_size = n
output_size = 1
learning_rate = 0.001 # The optimization learning rate
# Create weight matrix initialized randomely from N~(0, 0.01)
W = tf.Variable(tf.complex(np.random.rand(input_size, output_size),
np.random.rand(input_size, output_size)), name="weights")
with tf.GradientTape() as gtape:
y_out = tf.matmul(x_train, W, name="out")
error = y - y_out
loss = tf.reduce_mean(tf.square(tf.abs(error)), name="mse")
gradients = gtape.gradient(loss, [W])[0]
training_op = tf.assign(W, W - learning_rate * gradients)
我手动执行此操作,因为除非他们更改了它,否则复数不支持优化器,所以我"手动"完成。
改为尝试tf.compat.v1.assign
。 它对我有用。
tf.assign*
函数在TF 2.0中可用作tf.Variable
的方法。因此,您的示例可以重写为
with tf.GradientTape() as gtape:
...
W.assign_sub(learning_rate * gradients)
请注意,与 TF 1.X 中的tf.assign
不同,tf.Variable.assing_sub
将急切地执行分配。