为什么验证的FastTex模型的cosine_sibrility在两个闻名之间根本不是相对的



我想知道为什么与Wiki(韩文(预先训练的'FastText模型'似乎无法正常工作!:(

model = fasttext.load_model(" ./fasttext/wiki.ko.bin"(

(英语(model.cosine_simurarity("测试测试这是测试句子","现在并不是所有的相对文档确实真的"(

(

0.99 .... ?? 这些句子根本不是相对的含义。因此,我认为余弦相似性必须较低。但是是0.997383 ...

不可能将孤独的人与fastText进行比较?那么使用Doc2vec?

是唯一的方法

您正在使用哪个'fastText'代码包?

您是否确定其cosine_similarity()旨在采用这种原始字符串,并自动象征性/组合每个示例的单词以给出句子级别的相似性?(该功能是由其文档或说明性示例所隐含的吗?或者它是否期望预先施加的单词列表?(

最新更新