使用张量流计算雅可比和梯度



我正在尝试求解2D Darcy方程,它是一个混合公式。假设我有一个目标向量和源向量,如下所示:

u = [u1,u2,p] 
x = [x,y]. 
grad(u,x) =
[du1/dx, du2/dx, dp/dx;
du1/dy, du2/dy, dp/dy]

我不明白如果我做tf.gradients(u,x)会不会发生这种情况。

tf.gradients(u,x)不会返回您想要的内容,因为

来自https://www.tensorflow.org/api_docs/python/tf/gradients,

gradients((将ops添加到图中,以输出ys的导数关于xs。它返回长度为len(xs(的张量列表,其中每个张量是y在ys中和x在xs中的和(dy/dx(。

以下是如何获得jacobian。

import tensorflow as tf
x=tf.constant([3.0,4.0])
with tf.GradientTape() as tape:
tape.watch(x)
u1=x[0]**2+x[1]**2
u2=x[0]**2
u3=x[1]**3
u=tf.stack([u1,u2,u3])
J = tape.jacobian(u, x)
print(J)
'''
tf.Tensor(
[[ 6.  8.]
[ 6.  0.]
[ 0. 48.]], shape=(3, 2), dtype=float32)
'''

相关内容

  • 没有找到相关文章

最新更新