当数据库很大时,使用couchdb-mapReduce超时



详细信息:

  • Apache CouchDB 3.1.1版
  • 大约5GB的twitter数据已转储到分区中

我写过的Map reduce函数:

{
"_id": "_design/Info",
"_rev": "13-c943aaf3b77b970f4e787be600dd240e",
"views": {
"trial-view": {
"map": "function (doc) {n  emit(doc.account_name, 1);n}",
"reduce": "_count"
}
},
"language": "javascript",
"options": {
"partitioned": true
}
}

当我在邮递员中尝试以下命令时:

http://<server_ip>:5984/mydb/_artition/partition1/_design/Info/_view/试用视图?key=";BT"&group=真实

我得到以下错误:

{
"error": "timeout",
"reason": "The request could not be processed in a reasonable amount of time."
}

请帮助我如何在如此巨大的数据上应用mapReduce?

所以,在意识到自己的错误后,我想回答自己的问题。答案很简单。它只是需要更多的时间,因为索引需要很多时间。您可以查看元数据以查看正在索引的数据库数据。

相关内容

  • 没有找到相关文章

最新更新