我想下载我的Confluence维基的所有80万页。
我想使用:
curl -u wikiusername:wikipassword https://wiki.hostname.com/rest/api/content?start=1`
只需将start
从1
增加到800000
.
但是,响应时间随着start
的增加而增加,并且从~150,000
开始超时:
start | 响应时间(秒) |
---|---|
1 | 0.4 |
1,000 2,5 | |
10,000 | 9 |
50,000 | 112 |
100,000 | 286 |
200,000 | 超时 |
选项 1:
使用限制参数,如 developer.atlassian.com/server/confluence/... - 埃拉扎龙
选项 2:逐个空格下载,就像这个通过其 API 递归导出 Confluence 空间和页面的 Python 2 脚本所做的那样:https://github.com/siemens/confluence-dumper(镜像)。
我确认选项 2 有效。