在 TensorFlow 中运行 word2vec.py 后词嵌入的结果在哪里



我已经在'/tensorflow/models/embedding/'文件夹下运行了'word2vec.py'文件。但是我在输出文件夹中找不到单词嵌入的结果,只有模型文件和一些未知文件,如下所示:

word2vec 的结果文件

因为,从 Mikolov 的论文中可以清楚地看出,所有单词的词嵌入输出都不是在最后一层获得的。相反,他们砍掉最后一层,并取维度的隐藏层的权重:[vocab_size x embd_dim],即每一行都是相应单词的词向量(维度:embd_dim)。

请参阅以下内容以更好地理解: http://mccormickml.com/2016/04/19/word2vec-tutorial-the-skip-gram-model/

因此,在 tensorflow 实现中,tf.embedding_lookup具有所有单词的单词嵌入。该文件的第 26 行中提到了它word2vec.py /tensorflow/models/embedding/

24 The key ops used are:
25 * placeholder for feeding in tensors for each example.
26 * embedding_lookup for fetching rows from the embedding matrix.
27 * sigmoid_cross_entropy_with_logits to calculate the loss.
28 * GradientDescentOptimizer for optimizing the loss.
29 * skipgram custom op that does input processing.

最新更新