如何在 rdf4j 中解析一个大的 rdf 文件



我想使用以下代码解析RDF4J中的一个大文件,但由于解析器限制而出现异常;

public class ConvertOntology {
public static void main(String[] args) throws RDFParseException, RDFHandlerException, IOException {
String file =  "swetodblp_april_2008.rdf";
File initialFile = new File(file);
InputStream input = new FileInputStream(initialFile);
RDFParser parser = Rio.createParser(RDFFormat.RDFXML);
parser.setPreserveBNodeIDs(true); 
Model model = new LinkedHashModel();
parser.setRDFHandler(new StatementCollector(model));
parser.parse(input, initialFile.getAbsolutePath());
FileOutputStream out = new FileOutputStream("swetodblp_april_2008.nt");
RDFWriter writer = Rio.createWriter(RDFFormat.TURTLE, out);
try {
writer.startRDF();
for (Statement st: model) {
writer.handleStatement(st);
}
writer.endRDF();
}
catch (RDFHandlerException e) {
}
finally {
out.close();
}
}

解析器在本文档中遇到了超过 "100,000" 个实体扩展;这是应用程序施加的限制。

我按照RDF4J网站上的建议执行我的代码来设置两个参数(如以下命令所示(

mvn -Djdk.xml.totalEntitySizeLimit=0 -DentityExpansionLimit=0 exec:java

请提供任何帮助

该错误是由于Apache Xerces XML解析器,而不是默认的JDK XML解析器造成的。 因此,只需从.m2存储库中删除Xerces XML文件夹,代码就可以正常工作。

相关内容

最新更新