我目前正在利用Google Cloud NL API进行一些分析新闻文章的测试。最初,我对计算文档幅度的计算方式感到好奇,而这里的搜索产生了
Google Cloud自然语言API-如何计算文档幅度?
提到是组成句的总和。
在我自己的测试中,我发现事实并非如此。我可能做错了吗?
为了清楚起见,我在Conda-conda-forge获得的Google-cloud语言中使用了运行Python 3.7.3。
document =types.Document(content = str, type = enums.Document.Type.PLAIN_TEXT)
sentiment = client.analyze_sentiment(document=document)
sentence_sents = sentiment.sentences
test_mag = 0
for sent_obj in sentence_sents:
test_mag += sent_obj.sentiment.magnitude
print(sentiment.document_sentiment.magnitude)
print(test_mag)
从另一个线程中可以是绝对总和,但并非总是如此。
Google自然语言情感分析汇总分数
"聚合工作的方式正在将输入文本分解为较小的组件,通常是ngrams,这可能就是为什么文档谈论聚合的原因,但是,聚合并不是一个简单的添加,一个人无法总结单个个人情感每个实体的值获得总分。"
我认为得分和计算是这种情况。