我有一个存储结构向量的应用程序。这些结构保存了关于系统上每个GPU的信息,如内存和千兆浮点运算器。每个系统上有不同数量的GPU。
我有一个同时在多台机器上运行的程序,我需要收集这些数据。我对MPI很陌生,但在大多数情况下都能使用MPI_Gather()
,但我想知道如何收集/接收这些动态大小的向量。
class MachineData
{
unsigned long hostMemory;
long cpuCores;
int cudaDevices;
public:
std::vector<NviInfo> nviVec;
std::vector<AmdInfo> amdVec;
...
};
struct AmdInfo
{
int platformID;
int deviceID;
cl_device_id device;
long gpuMem;
float sgflops;
double dgflops;
};
集群中的每台机器都会填充其MachineData
的实例。我想收集这些实例中的每一个,但我不确定如何收集nviVec
和amdVec
,因为它们的长度在每台机器上都不同。
您可以将MPI_GATHERV
与MPI_GATHER
结合使用来实现这一点。MPI_GATHERV
是MPI_GATHER
的可变版本,它允许根秩从每个发送过程中收集不同数量的元素。但为了让根秩指定这些数字,它必须知道每个秩包含多少元素。在此之前,可以使用简单的单元素CCD_ 9来实现这一点。类似这样的东西:
// To keep things simple: root is fixed to be rank 0 and MPI_COMM_WORLD is used
// Number of MPI processes and current rank
int size, rank;
MPI_Comm_size(MPI_COMM_WORLD, &size);
MPI_Comm_rank(MPI_COMM_WORLD, &rank);
int *counts = new int[size];
int nelements = (int)vector.size();
// Each process tells the root how many elements it holds
MPI_Gather(&nelements, 1, MPI_INT, counts, 1, MPI_INT, 0, MPI_COMM_WORLD);
// Displacements in the receive buffer for MPI_GATHERV
int *disps = new int[size];
// Displacement for the first chunk of data - 0
for (int i = 0; i < size; i++)
disps[i] = (i > 0) ? (disps[i-1] + counts[i-1]) : 0;
// Place to hold the gathered data
// Allocate at root only
type *alldata = NULL;
if (rank == 0)
// disps[size-1]+counts[size-1] == total number of elements
alldata = new int[disps[size-1]+counts[size-1]];
// Collect everything into the root
MPI_Gatherv(vectordata, nelements, datatype,
alldata, counts, disps, datatype, 0, MPI_COMM_WORLD);
您还应该为结构注册MPI派生的数据类型(上面代码中的datatype
)(二进制发送可以工作,但不能移植,也不能在异构设置中工作)。