PyMongo插入花费了太多时间



我有一些".csv"文件,我想插入到我的数据库中,但其中有很多数据,我的代码花费了太多时间。我想问,是否有不同的方法来插入这样的数据?顺便说一句,我不想使用os.system(mongoimport ... ),因为它会从我的手机列中删除前面的0

这是代码

def do_sync():
path = "share"
extension = ".csv"
results = glob.glob(f"{path}/*{extension}")
for result in results:
print(result)
csvfile = open(result, 'r')
reader = csv.DictReader( csvfile )
db=mongo_client.media_mongo
header= [ "No", "phone", "location"]
for each in reader:
row={}
for field in header:
row[field]=each[field]
db.main_hikanshou.insert(row)

尝试使用pymongo 的批量插入函数

您必须首先创建插入查询,然后一次性将所有查询发送到数据库。

最新更新