通过排除某些词汇来更快地加载快速文本模型



加载 Facebook Research 发布的预训练快速文本词向量在本地机器上需要很长时间,我这样做是这样的:

model =  fs.load_word2vec_format('wiki.en.vec') 
print(model['test']) # get the vector of the word 'test'

我正在寻求通过删除未出现在我的数据集中的单词的词向量来减少加载时间。 即,我想将预训练向量模型简化为构成我需要分析的数据集的单词,这是预训练模型的子集。

我正准备尝试通过提取我需要的词向量并保存到新模型来构建一个新模型,但类型将从 FastTextKeyedVectors 更改为 FastText

#model2 = gensim.models.Word2Vec(iter=1)
#model2 = FastText()
for word in words:
    if (word in model):
       model2[] = model[word]

如何减少加载时间?我的方法有意义还是走错了路?

如果可以迭代 .vec 格式,这将是消除您不需要的单词的最快方法。要了解这一点,您应该研究数据库的结构。如果它接近 xml 格式,那应该是可行的,并且如何在 python 中迭代 xml 文件被广泛记录。

但是,关于您的方法,假设您刚刚以字典的形式加载了整个model,只是一个快速提示,请使用理解语法:

model={model[word] for word in model if word in mywords}

其中mywords是要保留的单词的列表。

最新更新