使用正则表达式的流式处理模式匹配



我想解析一个以 Warc 0.9 版本格式化的大型文本文件。此处提供了此类文本的示例。如果你看一下它,你会发现整个文档由以下条目的列表组成。

[Warc Headers]
[HTTP Headers]
[HTML Content]

我需要从每个条目中提取 URL 和 HTML 内容(请注意,示例文件由多个页面条目组成,每个条目的格式与上述内容类似。

我在 Java 中使用了以下正则表达式:

Pattern.compile("warc/0\.9\s\d+\sresponse\s(\S+)\s.*nn.*nn(.*)nn", Pattern.DOTALL)

其中,组 1 和 2 分别表示 URL 和 HTML 内容。此代码有两个问题:

  1. 找到匹配项非常缓慢。
  2. 仅与第一页匹配。

爪哇代码:

if(mStreamScanner.findWithinHorizon(PAGE_ENTRY, 0) == null){
    return null;
} else {
    MatchResult result = mStreamScanner.match();
    return new WarcPageEntry(result.group(1), result.group(2));
}

问题:

  • 为什么我的代码只解析第一页条目?
  • 有没有一种更快的方法来以流式方式解析大型文本?

我不会用正则表达式处理这些巨大的HTML字符串。不如依靠文档的结构呢?

例如,像这样:

HashMap<String, String> output = new HashMap<>();
Pattern pattern = Pattern.compile("^warc\/0\.9\s\d+\sresponse\s(\S+)\s.*");
try (InputStreamReader is = new InputStreamReader(new FileInputStream("excerpt.txt"), "UTF-8")) {               
    try (BufferedReader br = new BufferedReader(is)) {      
        String line;        
        while ((line = br.readLine()) != null) {
            Matcher matcher = pattern.matcher(line);
            if (matcher.matches()) {
                entityLoop: while (true) {
                    String url = matcher.group(1);
                    // skip header
                    int countEmptyLines = 0;
                    while ((line = br.readLine()) != null) {
                        if ("".equals(line)) {
                            countEmptyLines++;
                            if (countEmptyLines == 2) break;
                        }
                    }
                    // extract HTML
                    StringBuilder sb = new StringBuilder();
                    while ((line = br.readLine()) != null) {
                        matcher = pattern.matcher(line);
                        if (matcher.matches()) { 
                            // got all HTML; store our findings
                            output.put(url, sb.toString());
                            continue entityLoop; 
                        }
                        sb.append(line);
                    }
                    break; // no more url/html-entities available
                }
            }
        }
    }       
} catch (IOException e) {
    // do something smart
}
// now all your extracted data is stored in "output"

上面的代码仍有改进的余地。但它应该让你知道如何开始。

相关内容

  • 没有找到相关文章

最新更新