我想解析一个以 Warc 0.9 版本格式化的大型文本文件。此处提供了此类文本的示例。如果你看一下它,你会发现整个文档由以下条目的列表组成。
[Warc Headers]
[HTTP Headers]
[HTML Content]
我需要从每个条目中提取 URL 和 HTML 内容(请注意,示例文件由多个页面条目组成,每个条目的格式与上述内容类似。
我在 Java 中使用了以下正则表达式:
Pattern.compile("warc/0\.9\s\d+\sresponse\s(\S+)\s.*nn.*nn(.*)nn", Pattern.DOTALL)
其中,组 1 和 2 分别表示 URL 和 HTML 内容。此代码有两个问题:
- 找到匹配项非常缓慢。
- 仅与第一页匹配。
爪哇代码:
if(mStreamScanner.findWithinHorizon(PAGE_ENTRY, 0) == null){
return null;
} else {
MatchResult result = mStreamScanner.match();
return new WarcPageEntry(result.group(1), result.group(2));
}
问题:
- 为什么我的代码只解析第一页条目?
- 有没有一种更快的方法来以流式方式解析大型文本?
我不会用正则表达式处理这些巨大的HTML字符串。不如依靠文档的结构呢?
例如,像这样:
HashMap<String, String> output = new HashMap<>();
Pattern pattern = Pattern.compile("^warc\/0\.9\s\d+\sresponse\s(\S+)\s.*");
try (InputStreamReader is = new InputStreamReader(new FileInputStream("excerpt.txt"), "UTF-8")) {
try (BufferedReader br = new BufferedReader(is)) {
String line;
while ((line = br.readLine()) != null) {
Matcher matcher = pattern.matcher(line);
if (matcher.matches()) {
entityLoop: while (true) {
String url = matcher.group(1);
// skip header
int countEmptyLines = 0;
while ((line = br.readLine()) != null) {
if ("".equals(line)) {
countEmptyLines++;
if (countEmptyLines == 2) break;
}
}
// extract HTML
StringBuilder sb = new StringBuilder();
while ((line = br.readLine()) != null) {
matcher = pattern.matcher(line);
if (matcher.matches()) {
// got all HTML; store our findings
output.put(url, sb.toString());
continue entityLoop;
}
sb.append(line);
}
break; // no more url/html-entities available
}
}
}
}
} catch (IOException e) {
// do something smart
}
// now all your extracted data is stored in "output"
上面的代码仍有改进的余地。但它应该让你知道如何开始。