我开始研究使用C和OpenMPI库的并行编程。所以现在一切看起来都有点太复杂了。
我正在尝试做一个单一程序多个数据:Master:-初始化阵列-细分-将相同大小的比特发送到不同的进程(从进程)奴隶:-进程更改数组值并计算所有新元素的总和-将更改后的数组发送回masterMaster:-进行集体沟通,收集并汇总新价值观的总和-打印收到的每个新数组的前五个元素以及新值的全局和。-打印所花费的时间。
这就是我写的:
#include <stdio.h>
#include <stdlib.h>
#include "mpi.h"
#define ARRAYSIZE 16000000
int main (int argc, char *argv[]) {
MPI_Init(&argc, &argv);
int myrank;
char name[100];
int result;
int size = 0;
int number;
MPI_Comm_rank(MPI_COMM_WORLD, &myrank);
MPI_Request request;
int buffer;
int count;
double t1, t2;
MPI_Comm_size (MPI_COMM_WORLD,&size);
int cells = ARRAYSIZE/size;
float array[cells];
if (myrank == 0) {
t1 = MPI_Wtime();
t2 = MPI_Wtime();
MPI_Get_processor_name(name, &result);
// ********************** INICIALIZANDO ARRAY **********************
int i; /* loop variable */
float data[ARRAYSIZE]; /* the intial array */
printf("Starting serial array example...n");
printf("Using array of %d floats. Requires %ld bytesn",ARRAYSIZE,sizeof(data));
/* Initialize the array */
printf("Initializing array...n");
for(i=0; i<ARRAYSIZE; i++)
data[i] = i * 1.0;
/* Print a few sample results */
printf("Sample resultsn");
printf(" data[1]=%en", data[1]);
printf(" data[100]=%en", data[100]);
printf(" data[1000]=%en", data[1000]);
printf(" data[10000]=%en", data[10000]);
printf(" data[100000]=%en", data[100000]);
printf(" data[1000000]=%en", data[1000000]);
printf("nAll Done!n");
// ********************** ARRAY INICIALIZADO **********************
MPI_Comm_size (MPI_COMM_WORLD,&size);
printf("Total of tasks: %d", size);
printf("Each task process %d cells", ARRAYSIZE/size);
int cells = ARRAYSIZE/size;
int id_task;
for(id_task = 0; id_task < size; id_task++) {
//float array[cells];
int i=0;
for(i=0; i<cells; i++)
array[i] = i * (id_task+1.0);
MPI_Send(&array[id_task*cells], cells, MPI_FLOAT, id_task, 0, MPI_COMM_WORLD);
}
printf("master: %d at processor: %sn",myrank, name);
}
MPI_Recv(array, cells, MPI_FLOAT, 0, 0, MPI_COMM_WORLD, MPI_STATUS_IGNORE);
int i;
float resultado;
for(i=0; i<cells; i++)
array[i] = i * (myrank+1.0);
if(myrank!=0){
MPI_Send(array, cells, MPI_FLOAT, 0, 0, MPI_COMM_WORLD);
}
MPI_Reduce(&array, &resultado, 1, MPI_FLOAT, MPI_SUM, 0, MPI_COMM_WORLD);
if (myrank == 0) {
int j;
for(j=0; j<cells; j++){
for(i=0; i<5; i++){
printf("| %lf ",array[i*j]);
}
}
//t1 = MPI_Wtime();
t2 = MPI_Wtime();
MPI_Get_processor_name(name, &result);
printf("master: %d at processor: %sntime: %lfn",myrank, name,t2-t1);
}
MPI_Finalize();
}
但当我运行它时,我得到的只是一个"分段错误"。我读过分段错误的问题,但无法诊断为什么我的代码会出现这种情况。
提前谢谢。(我很抱歉我写得不好,英语不是我的第一语言)
更新:我包含了一个malloc和一个free,但当运行时,我仍然有"mpirun noticed that process rank 0 with PID 0 on node Brunos-Air exited on signal 11 (Segmentation fault: 11).
">
如果我尝试"$HOME/opt/usr/local/bin/mpicc -o -Wall -Wextra -g programa3-r1 ./programa3-r1.c
",它会给出:">ld:无法与体系结构x86_64的主可执行文件'programa3-r1'链接clang:错误:链接器命令失败,退出代码为1(使用-v查看调用)">
for(id_task = 0; id_task < size; id_task++) {
//float array[cells];
int i=0;
for(i=0; i<cells; i++)
array[i] = i * (id_task+1.0);
MPI_Send(&array[id_task*cells], cells, MPI_FLOAT, id_task, 0, MPI_COMM_WORLD);
}
您应该使用MPI_Send()
array
(也称为&array[0]
)而不是&array[id_task*cells]
。这可能是崩溃的根本原因。
请注意,从MPI的角度来看,您的程序是不正确的,因为任务0将MPI_Send()
传递给它自己,然后将MPI_Recv()
传递给它本身。这可能适用于小消息,而适用于长邮件的死锁small和long(除其他外)取决于您的MPI库,即所使用的互连,因此您必须避免这种情况。
if(myrank!=0){
MPI_Send(array, cells, MPI_FLOAT, 0, 0, MPI_COMM_WORLD);
}
在秩0上没有匹配的MPI_Recv()
,所以这也可能是死锁。
MPI_Reduce(&array, &resultado, 1, MPI_FLOAT, MPI_SUM, 0, MPI_COMM_WORLD);
这对来自所有秩的array[0]
求和并且将结果存储在秩0上的resultado
中。我不确定这是否真的是你的想法(但我不知道你在努力实现什么,所以这可能没关系)。
很可能存在堆栈溢出:
#define ARRAYSIZE 16000000
然后您声明一个本地自动变量(在调用堆栈上)
float data[ARRAYSIZE]; /* the intial array */
这是不合理的。一个典型的调用堆栈帧最多应该有几千字节(因为整个调用堆栈通常被限制在几兆字节或更少)。你想要一个64MB的。您应该使用C动态内存分配,因此声明float *data = NULL;
并在适当的位置使用calloc
或malloc
(以及更晚的free
;您应该避免内存泄漏)。不要忘记检查calloc
的故障。
编译所有警告&调试信息:gcc -Wall -Wextra -g
然后使用调试器gdb
检查是否发生堆栈溢出。
阅读有关GCC命令选项的文档。您可能还想使用类似-Wstack-usage=2048
的东西