我有一个作业运行在一个小型hadoop集群上,我想限制每个datanode生成的映射器的数量。当我使用-Dmapred.map。任务=12,但出于某种原因,它仍然会生成17个映射器。我已经找到了一种方法来限制全局,但我想在每个工作的基础上做。
在Map Reduce中,生成的映射器总数取决于从您的数据创建的输入分割。
每个输入分割将产生一个映射器任务。因此,在Map Reduce中不能减少映射器的计数。
我有一个作业运行在一个小型hadoop集群上,我想限制每个datanode生成的映射器的数量。当我使用-Dmapred.map。任务=12,但出于某种原因,它仍然会生成17个映射器。我已经找到了一种方法来限制全局,但我想在每个工作的基础上做。
在Map Reduce中,生成的映射器总数取决于从您的数据创建的输入分割。
每个输入分割将产生一个映射器任务。因此,在Map Reduce中不能减少映射器的计数。
javascript python java c# php android html jquery c++ css ios sql mysql arrays asp.net json python-3.x ruby-on-rails .net sql-server django objective-c excel regex ruby linux ajax iphone xml vba spring asp.net-mvc database wordpress string postgresql wpf windows xcode bash git oracle list vb.net multithreading eclipse algorithm macos powershell visual-studio image forms numpy scala function api selenium