У меня есть программа MPI, которая выполняет параллельный ввод-вывод с использованием библиотеки HDF5. Я столкнулся со странной проблемой при отладке. Я проверил на утечки памяти, используя valgrind для простого теста, и об ошибках не сообщалось. Затем я попробую другой тестовый пример с использованием ядер 120, 240, 360 и 480. Все случаи запускаются, за исключением случая 120 ядер, где я получаю эту ошибку:
MPI: MPI_COMM_WORLD rank 108 has terminated without calling MPI_Finalize()
MPI: aborting job
MPI: Received signal 9
Я озадачен этим. Что означает ошибка? Может ли это быть из-за недостатка памяти?
Задача ещё не решена.
Других решений пока нет …