斯坦福核心NLP树解析器句子限制错误-建议?



我正在处理德国法律文档,并希望为句子生成解析树。我可以找到并使用斯坦福CoreNLP解析器。但是,在解析文档的句子时,它不能像其他工具(例如spaCy)那样很好地识别句子限制。例如,它会在每一个' '处打断句子。字符,包括缩略语(如&;include .&;)末尾的点。因为在创建语法树时覆盖整个句子是至关重要的,所以这并不适合我。

我将感谢任何建议来解决这个问题,特别是指出其他软件可能更适合我的问题。如果我忽略了调整Stanford解析器的可能性,我将非常感谢任何关于如何使其更好地检测句子限制的提示。

快速浏览一下文档就知道了:您可以运行带有该属性的管道,其中可能包括句子分割器ssplit.isOneSentence = true来禁用它。这意味着你可以预先分割句子,例如使用空间,然后将单个句子输入管道。

最新更新