Почему MPI_Barrier вызывает ошибку сегментации в переполнении стека

Я сократил свою программу до следующего примера:

#include <mpi.h>

int main(int argc, char * argv[]) {
int rank, size;

MPI_Init(&argc, &argv);
MPI_Comm_rank(MPI_COMM_WORLD, &rank);
MPI_Comm_size(MPI_COMM_WORLD, &size);
MPI_Barrier(MPI_COMM_WORLD);
MPI_Finalize();
return 0;
}

Я компилирую и запускаю код, и получаю следующий результат:

My-MacBook-Pro-2:xCode_TrapSim user$ mpicxx -g -O0 -Wall barrierTest.cpp -o barrierTestExec
My-MacBook-Pro-2:xCode_TrapSim user$ mpiexec -n 2 ./barrierTestExec

==================================================================================    =
=   BAD TERMINATION OF ONE OF YOUR APPLICATION PROCESSES
=   PID 21633 RUNNING AT My-MacBook-Pro-2.local
=   EXIT CODE: 11
=   CLEANING UP REMAINING PROCESSES
=   YOU CAN IGNORE THE BELOW CLEANUP MESSAGES
===================================================================================
YOUR APPLICATION TERMINATED WITH THE EXIT STRING: Segmentation fault: 11 (signal 11)
This typically refers to a problem with your application.
Please see the FAQ page for debugging suggestions

Если я закомментирую MPI_Barrier или запускаю программу только на одном узле, код работает нормально. Я использую следующие компиляторы:

My-MacBook-Pro-2:xCode_TrapSim user$ mpiexec --version
HYDRA build details:
Version:                                 3.2
Release Date:                            Wed Nov 11 22:06:48 CST 2015
CC:                              clang
CXX:                             clang++
F77:                             /usr/local/bin/gfortran
F90:                             /usr/local/bin/gfortran
Configure options:                       '--disable-option-checking' '--prefix=/usr/local/Cellar/mpich/3.2_1' '--disable-dependency-tracking' '--disable-silent-rules' '--mandir=/usr/local/Cellar/mpich/3.2_1/share/man' 'CC=clang' 'CXX=clang++' 'FC=/usr/local/bin/gfortran' 'F77=/usr/local/bin/gfortran' '--cache-file=/dev/null' '--srcdir=.' 'CFLAGS= -O2' 'LDFLAGS=' 'LIBS=-lpthread ' 'CPPFLAGS= -I/private/tmp/mpich-20160606-48824-1qsaqn8/mpich-3.2/src/mpl/include -I/private/tmp/mpich-20160606-48824-1qsaqn8/mpich-3.2/src/mpl/include -I/private/tmp/mpich-20160606-48824-1qsaqn8/mpich-3.2/src/openpa/src -I/private/tmp/mpich-20160606-48824-1qsaqn8/mpich-3.2/src/openpa/src -D_REENTRANT -I/private/tmp/mpich-20160606-48824-1qsaqn8/mpich-3.2/src/mpi/romio/include'
Process Manager:                         pmi
Launchers available:                     ssh rsh fork slurm ll lsf sge manual persist
Topology libraries available:            hwloc
Resource management kernels available:   user slurm ll lsf sge pbs cobalt
Checkpointing libraries available:
Demux engines available:                 poll selectMy-MacBook-Pro-2:xCode_TrapSim user$ clang --version
Apple LLVM version 7.3.0 (clang-703.0.31)
Target: x86_64-apple-darwin15.5.0
Thread model: posix
InstalledDir:     /Applications/Xcode.app/Contents/Developer/Toolchains/XcodeDefault.xctoolchain/usr/bin

Кажется, это должно быть тривиальной проблемой, но я не могу понять это. Почему MPI_Barrier заставляет этот простой код вызывать ошибку?

5

Решение

Ужин трудно решить, что не так с вашей установкой. Однако, если вы можете использовать любой из вариантов MPI, возможно, вы можете попробовать это:

http://www.owsiak.org/?p=3492

Все, что я могу сказать, это работает с Open MPI

~/opt/usr/local/bin/mpicxx -g -O0 -Wall barrierTestExec.cpp -o barrierTestExec
~/opt/usr/local/bin/mpiexec -n 2 ./barrierTestExec

и не исключение в моем случае. Это действительно похоже на окружающую среду.

0

Другие решения

Других решений пока нет …

По вопросам рекламы [email protected]