c-MPI_Reduce()程序出现分段错误



我开始研究使用C和OpenMPI库的并行编程。所以现在一切看起来都有点太复杂了。

我正在尝试做一个单一程序多个数据:Master:-初始化阵列-细分-将相同大小的比特发送到不同的进程(从进程)奴隶:-进程更改数组值并计算所有新元素的总和-将更改后的数组发送回masterMaster:-进行集体沟通,收集并汇总新价值观的总和-打印收到的每个新数组的前五个元素以及新值的全局和。-打印所花费的时间。

这就是我写的:

#include <stdio.h>
#include <stdlib.h>
#include "mpi.h"
#define ARRAYSIZE   16000000
int main (int argc, char *argv[]) {
MPI_Init(&argc, &argv);
int myrank;
char name[100];
int result;
int size = 0;
int number;
MPI_Comm_rank(MPI_COMM_WORLD, &myrank);
MPI_Request request;
int buffer;
int count;
double t1, t2;
MPI_Comm_size (MPI_COMM_WORLD,&size);
int cells = ARRAYSIZE/size;
float array[cells];
if (myrank == 0) {
t1 = MPI_Wtime();
t2 = MPI_Wtime();
MPI_Get_processor_name(name, &result);
// ********************** INICIALIZANDO ARRAY **********************
int     i;          /* loop variable */
float   data[ARRAYSIZE];    /* the intial array */
printf("Starting serial array example...n");
printf("Using array of %d floats. Requires %ld bytesn",ARRAYSIZE,sizeof(data));
/* Initialize the array */
printf("Initializing array...n");
for(i=0; i<ARRAYSIZE; i++)
data[i] =  i * 1.0;
/* Print a few sample results */
printf("Sample resultsn");
printf("   data[1]=%en",  data[1]);
printf("   data[100]=%en",  data[100]);
printf("   data[1000]=%en",  data[1000]);
printf("   data[10000]=%en",  data[10000]);
printf("   data[100000]=%en",  data[100000]);
printf("   data[1000000]=%en",  data[1000000]);
printf("nAll Done!n");
// ********************** ARRAY INICIALIZADO **********************
MPI_Comm_size (MPI_COMM_WORLD,&size);
printf("Total of tasks: %d", size);
printf("Each task process %d cells", ARRAYSIZE/size);
int cells = ARRAYSIZE/size;
int id_task;
for(id_task = 0; id_task < size; id_task++) {
//float array[cells];
int i=0;
for(i=0; i<cells; i++)
array[i] =  i * (id_task+1.0);
MPI_Send(&array[id_task*cells], cells, MPI_FLOAT, id_task, 0, MPI_COMM_WORLD);
}
printf("master: %d at processor: %sn",myrank, name);
}
MPI_Recv(array, cells, MPI_FLOAT, 0, 0, MPI_COMM_WORLD, MPI_STATUS_IGNORE);
int i;
float resultado;
for(i=0; i<cells; i++)
array[i] =  i * (myrank+1.0);
if(myrank!=0){
MPI_Send(array, cells, MPI_FLOAT, 0, 0, MPI_COMM_WORLD);
}
MPI_Reduce(&array, &resultado, 1, MPI_FLOAT, MPI_SUM, 0, MPI_COMM_WORLD);
if (myrank == 0) {
int j;
for(j=0; j<cells; j++){
for(i=0; i<5; i++){
printf("| %lf ",array[i*j]);
}
}
//t1 = MPI_Wtime();
t2 = MPI_Wtime();
MPI_Get_processor_name(name, &result);
printf("master: %d at processor: %sntime: %lfn",myrank, name,t2-t1);
}
MPI_Finalize();
}

但当我运行它时,我得到的只是一个"分段错误"。我读过分段错误的问题,但无法诊断为什么我的代码会出现这种情况。

提前谢谢。(我很抱歉我写得不好,英语不是我的第一语言)

更新:我包含了一个malloc和一个free,但当运行时,我仍然有"mpirun noticed that process rank 0 with PID 0 on node Brunos-Air exited on signal 11 (Segmentation fault: 11).">

如果我尝试"$HOME/opt/usr/local/bin/mpicc -o -Wall -Wextra -g programa3-r1 ./programa3-r1.c",它会给出:">ld:无法与体系结构x86_64的主可执行文件'programa3-r1'链接clang:错误:链接器命令失败,退出代码为1(使用-v查看调用)">

for(id_task = 0; id_task < size; id_task++) {
//float array[cells];
int i=0;
for(i=0; i<cells; i++)
array[i] =  i * (id_task+1.0);
MPI_Send(&array[id_task*cells], cells, MPI_FLOAT, id_task, 0, MPI_COMM_WORLD);
}

您应该使用MPI_Send()array(也称为&array[0])而不是&array[id_task*cells]。这可能是崩溃的根本原因。

请注意,从MPI的角度来看,您的程序是不正确的,因为任务0将MPI_Send()传递给它自己,然后将MPI_Recv()传递给它本身。这可能适用于消息,而适用于邮件的死锁smalllong(除其他外)取决于您的MPI库,即所使用的互连,因此您必须避免这种情况。

if(myrank!=0){
MPI_Send(array, cells, MPI_FLOAT, 0, 0, MPI_COMM_WORLD);
}

在秩0上没有匹配的MPI_Recv(),所以这也可能是死锁。

MPI_Reduce(&array, &resultado, 1, MPI_FLOAT, MPI_SUM, 0, MPI_COMM_WORLD);

这对来自所有秩的array[0]求和并且将结果存储在秩0上的resultado中。我不确定这是否真的是你的想法(但我不知道你在努力实现什么,所以这可能没关系)。

很可能存在堆栈溢出:

#define ARRAYSIZE   16000000

然后您声明一个本地自动变量(在调用堆栈上)

float   data[ARRAYSIZE];    /* the intial array */

这是不合理的。一个典型的调用堆栈帧最多应该有几千字节(因为整个调用堆栈通常被限制在几兆字节或更少)。你想要一个64MB的。您应该使用C动态内存分配,因此声明float *data = NULL;并在适当的位置使用callocmalloc(以及更晚的free;您应该避免内存泄漏)。不要忘记检查calloc的故障。

编译所有警告&调试信息:gcc -Wall -Wextra -g然后使用调试器gdb检查是否发生堆栈溢出。

阅读有关GCC命令选项的文档。您可能还想使用类似-Wstack-usage=2048的东西

相关内容

  • 没有找到相关文章

最新更新