Странное поведение программы

У меня есть программа MPI, которая выполняет параллельный ввод-вывод с использованием библиотеки HDF5. Я столкнулся со странной проблемой при отладке. Я проверил на утечки памяти, используя valgrind для простого теста, и об ошибках не сообщалось. Затем я попробую другой тестовый пример с использованием ядер 120, 240, 360 и 480. Все случаи запускаются, за исключением случая 120 ядер, где я получаю эту ошибку:

 MPI: MPI_COMM_WORLD rank 108 has terminated without calling MPI_Finalize()
MPI: aborting job
MPI: Received signal 9

Я озадачен этим. Что означает ошибка? Может ли это быть из-за недостатка памяти?

1

Решение

Задача ещё не решена.

Другие решения

Других решений пока нет …

По вопросам рекламы [email protected]