Watson/Alchemy情绪分析在某些情况下被错误标记为负面



我正在使用Watson/Alchemy Sentiment Analysis API,发现一些文章被标记为负面,而这些文章可以说是正面的。当文章讨论好的或有益的减少时,就会发生这种情况。

例如,《华盛顿邮报》的这篇文章,"我们在美国的枪支暴力大幅下降。原因如下。"当提交给API时,它的得分为-0.4,尽管这篇文章相当乐观!(文章认为,枪支暴力事件显著减少。)

另一个例子是CoreLogic的这篇文章,《CoreLogic2016年1月完成的38000次赎回权报告》。API的文件情绪得分为-0.27,尽管文本是正面的:"……与2015年1月相比,止回库存下降了21.7%,完成的止回权下降了16.2%。全国已完成止赎的数量同比下降,从2015年1月的46000起下降到2016年1月。"

是否有解决此问题的既定解决方法?具体来说,当细心的读者对此类文章的评价与API的建议截然不同时,我们不想损害服务的可信度,也不想损害我们的结果。我正在寻找一些可以让我修改特定案件的情绪结果的东西(例如,"取消抵押品赎回权的减少"是积极的,"凶杀案的减少"也是积极的)。

我相信这很正常:-)很少有情绪分析算法能在100%的结果中给你正确的答案:-)我不知道算法的实现,但我敢打赌,情绪是根据表情和单词的"情绪"计算出来的。例如,"枪支"、"暴力"很可能与负面情绪有关,但Watson可能没有理解它们与"大规模衰退"有关(即使是"衰退"也可能有负面情绪)。

即使是最先进的情绪分析算法,在非常特定的领域也可以达到85%到90%的准确率。因此,在此基础上设定期望值总是很重要的。

相关内容

  • 没有找到相关文章

最新更新