文档情感幅度!= sum(句子幅度)



我目前正在利用Google Cloud NL API进行一些分析新闻文章的测试。最初,我对计算文档幅度的计算方式感到好奇,而这里的搜索产生了

Google Cloud自然语言API-如何计算文档幅度?

提到是组成句的总和。

在我自己的测试中,我发现事实并非如此。我可能做错了吗?


为了清楚起见,我在Conda-conda-forge获得的Google-cloud语言中使用了运行Python 3.7.3。

document =types.Document(content = str, type = enums.Document.Type.PLAIN_TEXT)
sentiment = client.analyze_sentiment(document=document)
sentence_sents = sentiment.sentences
test_mag = 0
for sent_obj in sentence_sents:
     test_mag += sent_obj.sentiment.magnitude
print(sentiment.document_sentiment.magnitude)
print(test_mag)

从另一个线程中可以是绝对总和,但并非总是如此。

Google自然语言情感分析汇总分数

"聚合工作的方式正在将输入文本分解为较小的组件,通常是ngrams,这可能就是为什么文档谈论聚合的原因,但是,聚合并不是一个简单的添加,一个人无法总结单个个人情感每个实体的值获得总分。"

我认为得分和计算是这种情况。

相关内容

  • 没有找到相关文章

最新更新