Невозможно запустить MPI CLUSTER в локальной сети

Это снимок моего файла /etc/hosts

введите здесь описание изображения

Карпаты - хозяин, а клиент - раб

Я успешно сделал

  1. НАСТРОЙКА БЕЗ ПАРОЛЯ SSH
  2. Установлен sudo mount -t nfs karpathy:/home/mpiuser/cloud ~/cloud

Я могу войти в свой клиент просто ssh client

Я следил за этим блогом http://mpitutorial.com/tutorials/running-an-mpi-cluster-within-a-lan/

mpirun -np 5 -hosts karpathy ./cpi вывод

введите здесь описание изображения

mpirun -np 5 -hosts client ./cpi

Получение ошибки

[mpiexec@karpathy] HYDT_dmxu_poll_wait_for_event (./tools/demux/demux_poll.c:77): callback returned error status [mpiexec@karpathy] HYD_pmci_wait_for_completion (./pm/pmiserv/pmiserv_pmci.c:179): error waiting for event [mpiexec@karpathy] main (./ui/mpich/mpiexec.c:397): process manager error waiting for completion


person Rachid    schedule 04.06.2016    source источник
comment
Может mpirun -nolocal?   -  person Mark Setchell    schedule 04.06.2016
comment
Я хочу работать на клиентском удаленном хосте   -  person Rachid    schedule 04.06.2016
comment
...и поэтому не местный...   -  person Mark Setchell    schedule 04.06.2016
comment
Проверьте, включен ли брандмауэр на главном и клиентском узлах. Если есть, отключите его и повторите эксперимент.   -  person kraffenetti    schedule 07.06.2016
comment
Попробуйте устранить неполадки с помощью ssh client ./cpi . Если это не работает, есть проблема с ssh, telnet, path-filename или разрешением.   -  person bstipe    schedule 27.08.2016


Ответы (1)


Надеюсь, вы уже нашли решение, если нет, я бы посоветовал сделать пару вещей. 1. отключить брандмауэр на обоих узлах, выполнив `

sudo ufw отключить

` 2. Создание файла с именем machinefile (или как вам угодно) и сохранение количества ЦП в обоих узлах вместе с именами хостов. мой машинный файл содержит:

master:8 slave:4

master и slave — это имена хостов, а 8 и 4 — количество процессоров на каждом узле.

  1. компилировать использовать

mpicc -o имя файла имя_файла.cpp

  1. для запуска используйте машинный файл в качестве аргумента

mpirun -np 12 -f машинный файл ./имя файла

12 - номер процессов. Поскольку оба узла имеют по 12 процессоров, код лучше разделить на 12 процессов.

person shaibi    schedule 01.09.2016