嗨,我有一个~ 500万个文档在mongodb(复制)每个文档43个字段。如何删除重复的文件。如何提问
db.testkdd.ensureIndex({
duration : 1 , protocol_type : 1 , service : 1 ,
flag : 1 , src_bytes : 1 , dst_bytes : 1 ,
land : 1 , wrong_fragment : 1 , urgent : 1 ,
hot : 1 , num_failed_logins : 1 , logged_in : 1 ,
num_compromised : 1 , root_shell : 1 , su_attempted : 1 ,
num_root : 1 , num_file_creations : 1 , num_shells : 1 ,
num_access_files : 1 , num_outbound_cmds : 1 , is_host_login : 1 ,
is_guest_login : 1 , count : 1 , srv_count : 1 ,
serror_rate : 1 , srv_serror_rate : 1 , rerror_rate : 1 ,
srv_rerror_rate : 1 , same_srv_rate : 1 , diff_srv_rate : 1 ,
srv_diff_host_rate : 1 , dst_host_count : 1 , dst_host_srv_count : 1 ,
dst_host_same_srv_rate : 1 , dst_host_diff_srv_rate : 1 ,
dst_host_same_src_port_rate : 1 , dst_host_srv_diff_host_rate : 1 ,
dst_host_serror_rate : 1 , dst_host_srv_serror_rate : 1 ,
dst_host_rerror_rate : 1 , dst_host_srv_rerror_rate : 1 , lable : 1
},
{unique: true, dropDups: true}
)
运行这段代码,我得到一个错误"errmsg": "从索引生成的命名空间名称..
{
"ok" : 0,
"errmsg" : "namespace name generated from index name "project.testkdd.$duration_1_protocol_type_1_service_1_flag_1_src_bytes_1_dst_bytes_1_land_1_wrong_fragment_1_urgent_1_hot_1_num_failed_logins_1_logged_in_1_num_compromised_1_root_shell_1_su_attempted_1_num_root_1_num_file_creations_1_num_shells_1_num_access_files_1_num_outbound_cmds_1_is_host_login_1_is_guest_login_1_count_1_srv_count_1_serror_rate_1_srv_serror_rate_1_rerror_rate_1_srv_rerror_rate_1_same_srv_rate_1_diff_srv_rate_1_srv_diff_host_rate_1_dst_host_count_1_dst_host_srv_count_1_dst_host_same_srv_rate_1_dst_host_diff_srv_rate_1_dst_host_same_src_port_rate_1_dst_host_srv_diff_host_rate_1_dst_host_serror_rate_1_dst_host_srv_serror_rate_1_dst_host_rerror_rate_1_dst_host_srv_rerror_rate_1_lable_1" is too long (127 byte max)",
"code" : 67
}
如何解决这个问题?
用于创建索引的" dropdup "语法在MongoDB 2.6中已被"弃用",并在MongoDB 3.0中删除。在大多数情况下,使用它并不是一个很好的主意,因为"删除"是任意的,任何"重复"都可以被删除。这意味着被"删除"的东西可能不是你真正想要删除的。
无论如何,您将遇到"索引长度"错误,因为这里的索引键值将比允许的更长。一般来说,在任何正常的应用程序中,您都不"意味着"索引43个字段。
如果您想从集合中删除"重复",那么您最好的选择是运行聚合查询以确定哪些文档包含"重复"数据,然后循环遍历该列表,从目标集合中删除"除了一个"之外的所有已经"唯一"的_id
值。这可以通过"批量"操作来实现,以获得最大的效率。
注:我确实很难相信你的文档实际上包含43个"唯一"字段。很可能"您所需要的"只是简单地识别仅那些使文档"唯一"的字段,然后按照下面概述的过程:
var bulk = db.testkdd.initializeOrderedBulkOp(),
count = 0;
// List "all" fields that make a document "unique" in the `_id`
// I am only listing some for example purposes to follow
db.testkdd.aggregate([
{ "$group": {
"_id": {
"duration" : "$duration",
"protocol_type": "$protocol_type",
"service": "$service",
"flag": "$flag"
},
"ids": { "$push": "$_id" },
"count": { "$sum": 1 }
}},
{ "$match": { "count": { "$gt": 1 } } }
],{ "allowDiskUse": true}).forEach(function(doc) {
doc.ids.shift(); // remove first match
bulk.find({ "_id": { "$in": doc.ids } }).remove(); // removes all $in list
count++;
// Execute 1 in 1000 and re-init
if ( count % 1000 == 0 ) {
bulk.execute();
bulk = db.testkdd.initializeOrderedBulkOp();
}
});
if ( count % 1000 != 0 )
bulk.execute();
如果你的MongoDB版本"低于"2.6并且没有批量操作,那么你可以尝试在循环内使用标准.remove()
。还需要注意的是,.aggregate()
不会在这里返回游标,循环必须更改为:
db.testkdd.aggregate([
// pipeline as above
]).result.forEach(function(doc) {
doc.ids.shift();
db.testkdd.remove({ "_id": { "$in": doc.ids } });
});
但是一定要仔细查看您的文档,并且只包括您希望成为_id
分组的一部分的"唯一"字段。否则,您最终什么也没有删除,因为那里没有重复项。