MPI 点对点通信到集体通信

  • 本文关键字:通信 点对点通信 MPI c++ mpi
  • 更新时间 :
  • 英文 :


我正在学习MPI,我正在尝试将我的MPI程序从点对点通信转换为MPI集合。

下面是我使用 MPI 点对点通信进行矩阵乘法的代码片段......

int i;
    if(rank == 0) {
        for(i = 1; i < size; i++){
            MPI_Send(&rows, 1, MPI_INT, i, 0, MPI_COMM_WORLD);
            MPI_Send(&columns, 1, MPI_INT, i, 0, MPI_COMM_WORLD);
        }
    } else {
        MPI_Recv(&rows, 1, MPI_INT, 0, 0, MPI_COMM_WORLD, &status);
        MPI_Recv(&columns, 1, MPI_INT, 0, 0, MPI_COMM_WORLD, &status);
    }   
    int local_block_size = rows / size;
    int process, column_pivot;
    if(rank == 0) {
        for(i = 1; i < size; i++){
            MPI_Send((matrix_1D_mapped + (i * (local_block_size * rows))), (local_block_size * rows), MPI_DOUBLE, i, 0, MPI_COMM_WORLD);
            MPI_Send((rhs + (i * local_block_size)), local_block_size, MPI_DOUBLE, i, 0, MPI_COMM_WORLD);
        }
        for(i = 0; i < local_block_size * rows; i++){
            matrix_local_block[i] = matrix_1D_mapped[i];
        }
        for(i = 0; i < local_block_size; i++){
            rhs_local_block[i] = rhs[i];
        }
    } else {
        MPI_Recv(matrix_local_block, local_block_size * rows, MPI_DOUBLE, 0, 0, MPI_COMM_WORLD, &status);
        MPI_Recv(rhs_local_block, local_block_size, MPI_DOUBLE, 0, 0, MPI_COMM_WORLD, &status);
    }

我正在考虑用MPI_Bcast替换MPI_Send...这是正确的方法吗?

对于发送到所有接收器的数据实际上是相同的第一次通信,因此MPI_Bcast是正确的方法。第二次通信将较大数组的不同块分发给收件人,这是作为一个集体完成的,MPI_Scatter .请注意,分散在通信中包含根秩,因此您可以省略手动本地副本。

最新更新