>我正在尝试将数据从包含 20 亿条记录的 csv 导入到 Neo4J 中,现在我使用以下查询(在我的实际查询中,我有 40 个属性和 5 种类型的节点(:
call apoc.periodic.commit("LOAD CSV with headers from 'file:///person_job.csv' as
row fieldterminator '|' WITH row as a
WHERE NOT a.id IS NULL
MERGE (b:Person{id:a.id})
MERGE (c:Job{type:a.type})
MERGE (b)<-[:RELATED_TO]-(c)",{limit:2000000});
我在 id 和类型上创建了索引,但现在此查询需要五天才能完成。 您知道如何提高此查询的效率吗?
如果这是一次性加载或初始加载,则应使用 Neo4j-Import。 2M 是一个大型提交。确保您有一个较大的堆大小来处理这个问题。