训练 OpenNLP 文档分类



我正在尝试使用OpenNLP对发票进行分类。根据它的描述,我将它分为两类。我构建了一个包含 20K 描述的训练文件,并将每个描述都标记为正确的类。

训练数据如下所示(第一列是代码,我将其用作类,第二列是发票描述):

85171231 IPHONE 5S CINZA ESPACIAL 16GB (ME432BZA)
85171231 Galaxy S6 SM-G920I
85171231 motorola - MOTO G5 XT1672
00000000 MOTONETA ITALIKA AT110
00000000 CJ BOX UNIBOX MOLA 138X57X188 VINHO

使用OpenNLP的DocumentClassificationr,我实现了98.5%的正确性。但是,为了提高效率,我采用了错误的分类文档,并用它来扩展训练数据。

例如,当我第一次运行它时,"MOTONETA ITALIKA AT110"被归类为"85171231"。没关系,因为在第一次运行中,"MOTONETA ITALIKA AT110"没有分类。因此,我教了分类器,明确将"MOTONETA ITALIKA AT110"标记为"00000000"。

但是,再次运行它,OpenNLP坚持将其分类为"85171231",即使训练数据包含"000000"的显式映射。

所以我的问题是:我是在教OpenNLP吗?如何提高效率?

我使用的代码是:

MarkableFileInputStreamFactory dataIn = new MarkableFileInputStreamFactory("data.train");
ObjectStream<String> lineStream = new PlainTextByLineStream(dataIn, StandardCharsets.UTF_8);
ObjectStream<DocumentSample> sampleStream = new DocumentSampleStream(lineStream);
TrainingParameters params = new TrainingParameters();
params.put(TrainingParameters.ITERATIONS_PARAM, "100");
params.put(TrainingParameters.CUTOFF_PARAM, "0");
DoccatModel model = DocumentCategorizerME.train("pt", sampleStream, params, new DoccatFactory());
DocumentCategorizer doccat = new DocumentCategorizerME(model);
double[] aProbs = doccat.categorize("MOTONETA ITALIKA AT110".replaceAll("[^A-Za-z0-9 ]", " ").split(" "));
doccat.getBestCategory(aProbs);

默认情况下,DocumentClassificationr 将使用单词袋。这意味着不考虑术语顺序。 如果MOTONETA ITALIKA AT110的任何项在群85171231中出现的频率很高,分类器将倾向于使用该群。

您有几种选择:

  • 您可以将MOTONETA ITALIKA AT110的更多变体添加到组000000;
  • 尝试更改特征生成器。

第二个选项是更改模型的创建,如下所示:

int minNgramSize = 2;
int maxNgramSize = 3;
DoccatFactory customFactory = new DoccatFactory(
new FeatureGenerator[]{
new BagOfWordsFeatureGenerator(),
new NGramFeatureGenerator(minNgramSize, maxNgramSize)
}
);
DoccatModel model = DocumentCategorizerME.train("pt", sampleStream, params, customFactory);

您可以通过删除 BagOfWordsFeatureGenerator 并更改最小和最大 ngram 大小来使用特征生成器。

最新更新