TensorFlow:如何找到学习/回忆最差的样本



使用TensorFlow可以收集错误信息,例如:

correct_prediction = tf.equal(tf.argmax(logits, 1), tf.argmax(one_hot_y, 1))

但它只提供了一个向量,告诉哪些样本被正确召回。

但是,要真正了解正在发生的事情,或者需要改进的地方,我想找出最难回忆的样本。这就像计算神经网络产生的对数值与每个样本的目标one_hot向量之间的欧氏距离,并选择顶部距离。

你能分享一下你对如何使用TensorFlow的见解吗?

使用math_ops文档!

sq_difference = tf.square(tf.add(logits, tf.neg(one_hot_y)))
sq_distances = tf.reduce_sum(sq_difference, axis=1)

请注意,sq_difference具有维度batch_size * output_lensq_distances具有维度output_len

最新更新