用python编写文件



我的脚本解析了大约20000个条目并将它们保存到数据库中。我使用了大约需要35秒才能保存的事务,而且在提交的查询保存到内存之前,它还消耗了很高的内存。

我找到了另一种写CSV的方法,然后使用"copy_from"加载到postgres中,这非常快。若有人可以建议,若我应该在开始时打开一次文件,然后在加载到postgres时关闭文件,或者在单个条目准备好写入时打开文件,然后关闭。

节省内存利用率的最佳方法是什么?

减少交易规模?

相关内容

  • 没有找到相关文章

最新更新