我需要从ADLS(Azure数据湖存储(读取多个文件(105个文件(;解析它们,然后将解析的数据直接添加到azurecosmos数据库中的多个集合中,用于mongodbapi。所有这些都需要在一个请求中完成。平均文件大小为120kb。问题是添加多个文档后,会出现"请求大小限制过大"的错误如果有人对此有任何意见,请告诉我。
目前尚不清楚如何执行多文档插入,但。。。您无法增加最大请求大小。您将需要执行单独的插入,或者以较小的批量进行插入。
我需要从ADLS(Azure数据湖存储(读取多个文件(105个文件(;解析它们,然后将解析的数据直接添加到azurecosmos数据库中的多个集合中,用于mongodbapi。所有这些都需要在一个请求中完成。平均文件大小为120kb。问题是添加多个文档后,会出现"请求大小限制过大"的错误如果有人对此有任何意见,请告诉我。
目前尚不清楚如何执行多文档插入,但。。。您无法增加最大请求大小。您将需要执行单独的插入,或者以较小的批量进行插入。
javascript python java c# php android html jquery c++ css ios sql mysql arrays asp.net json python-3.x ruby-on-rails .net sql-server django objective-c excel regex ruby linux ajax iphone xml vba spring asp.net-mvc database wordpress string postgresql wpf windows xcode bash git oracle list vb.net multithreading eclipse algorithm macos powershell visual-studio image forms numpy scala function api selenium