我对哪个dim
通常指的是Tensorflow中的哪个实际维度感到困惑,但具体地说,当使用tf.metrics.mean_cosine_distance
鉴于
x = [
[1, 2, 3, 4, 5],
[0, 2, 3, 4, 5],
]
我想逐列计算距离。换句话说,哪个维度解析为(伪代码):
mean([
cosine_distance(x[0][0], x[1][0]),
cosine_distance(x[0][1], x[1][1]),
cosine_distance(x[0][2], x[1][2]),
cosine_distance(x[0][3], x[1][3]),
cosine_distance(x[0][4], x[1][4]),
])
它的输入x
dim 0
。一旦您将输入x
构建为 numpy 数组,就很容易看到这一点。
In [49]: x_arr = np.array(x, dtype=np.float32)
In [50]: x_arr
Out[50]:
array([[ 1., 2., 3., 4., 5.],
[ 0., 2., 3., 4., 5.]], dtype=float32)
# compute (mean) cosine distance between `x[0]` & `x[1]`
# where `x[0]` can be considered as `labels`
# while `x[1]` can be considered as `predictions`
In [51]: cosine_dist_axis0 = tf.metrics.mean_cosine_distance(x_arr[0], x_arr[1], 0)
此dim
对应于 NumPy 术语中的名称axis
。例如,可以按照axis 0
完成简单的sum
操作,如下所示:
In [52]: x_arr
Out[52]:
array([[ 1., 2., 3., 4., 5.],
[ 0., 2., 3., 4., 5.]], dtype=float32)
In [53]: np.sum(x_arr, axis=0)
Out[53]: array([ 1., 4., 6., 8., 10.], dtype=float32)
当你计算tf.metrics.mean_cosine_distance
时,你实际上是在计算向量之间的余弦距离,如果你的输入是(n, )
形状,你实际上是在计算向量之间的余弦距离,labels
和沿dim 0
predictions
(然后取平均值),其中n
是每个向量的长度(即标签/预测中的条目数)
但是,如果要将labels
和predictions
作为列向量传递,则必须沿dim 1
计算tf.metrics.mean_cosine_distance
示例:
如果您的输入label
和prediction
是列向量,
# if your `label` is a column vector
In [66]: (x_arr[0])[:, None]
Out[66]:
array([[ 1.],
[ 2.],
[ 3.],
[ 4.],
[ 5.]], dtype=float32)
# if your `prediction` is a column vector
In [67]: (x_arr[1])[:, None]
Out[67]:
array([[ 0.],
[ 2.],
[ 3.],
[ 4.],
[ 5.]], dtype=float32)
然后,tf.metrics.mean_cosine_distance
必须沿着dim 1
计算
# inputs
In [68]: labels = (x_arr[0])[:, None]
In [69]: predictions = (x_arr[1])[:, None]
# compute mean cosine distance between them
In [70]: cosine_dist_dim1 = tf.metrics.mean_cosine_distance(labels, predictions, 1)
这个tf.metrics.mean_cosine_distance
或多或少在做与scipy.spatial.distance.cosine
相同的事情,但它也需要mean
。
对于您的示例案例:
In [77]: x
Out[77]: [[1, 2, 3, 4, 5], [0, 2, 3, 4, 5]]
In [78]: import scipy
In [79]: scipy.spatial.distance.cosine(x[0], x[1])
Out[79]: 0.009132