Конфигурация суперкомпьютера СКИФ МГУ "Чебышев"


В данный момент для пользователей кластера доступны разделы (очереди):

 

Раздел ядер память диски max проц-часов max время (часов) max задач max запущенных
regular 4152 8 ГБ (1 ГБ/ядро) нет 20000 72 50 20
hdd 520 8 ГБ (1 ГБ/ядро) есть 3120 72 10 5
hddmem 256 16 ГБ (2 ГБ/ядро) есть 1536 72 10 5
bigmem 64 32 ГБ (4 ГБ/ядро) есть 384 72 5 3
test 80 8 ГБ (1 ГБ/ядро) нет 1200 50 10 10

 

"max проц-часов" означает лимит процессоро-часов на пользователя. Процессоро-часы для задачи - произведение числа занятых ядер и затребованного времени для задачи в часах. Сумма процесоро-часов запущенных пользователем задач не может превышать этот лимит.

"max задач" - максимальное число задач пользователя в очереди, включая запущенные.

"max запущенных" - максимальное число запущенных задач пользователя.

Для раздела (очереди) test лимит времени на одну задачу - 15 минут. Для остальных разделов - 3 суток.

Все вычислительные узлы кластера объединены в общий раздел (очередь) main. Доступ к очереди main закрыт для пользователей по умолчанию. Если у Вас есть необходимость использовать все ресурсы суперкомпьютера, обратитесь с заявкой к Вл.В. Воеводину (voevodin@parallel.ru).

Для каждого пользователя устанавлена дисковая квота 50ГБ и 100.000 файлов. За соблюдением этой квоты пользователь обязан следить самостоятельно.

Для запуска однопроцессорных или OpenMP-задач можно воспользоваться опцией команды mpirun -t ppn=X, где X - число требуемых ядер на узел. Ключом -np задаётся число MPI-процессов. Например, ppn=1 означает запуск одного MPI-процесса на узел, а ppn=2 - одного процесса на физический процессор. Подробнее - смотрите в документации на системное ПО.

Для запуска openmpi и IntelMPI-программ указывайте профиль openmpi и intel соответственно.

Указать профиль можно ключом -as команды mpirun.

Например, для запуска приложения Intel-MPI на 20 узлах, на каждом из которых мы хотим запустить только по 2 MPI-процесса, используйте команду mpirun -np 40 -t ppn=2 -as intel ./myprogram


На кластере СКИФ МГУ доступны следующие компиляторы:

  • Intel Compilers 11.0. (C,C++,Fortran77/90,95) Команды: icc, ifort
  • Portland Group Inc. Compilers 7.2-3 (C,C++,Fortran77/90,95) Команды: pgcc, pgCC, pgf77, pgf90, pgf95
  • PathScale Compiler Suite: Version 3.2 (C,C++,Fortran90/95) Команды: pathcc, pathCC, pathf90, pathf95
  • GNU 4.1.2 (C,C++,Fortran) Команды: gcc, gfortran

Для компиляции параллелных программ используйте программы:

  • mpicc/mpicxx/mpif77/mpif90

Для указания компилятора и версии MPI, с которыми вы хотите работатьь, необходимо воспользоваться утилитой mpi-selector:

  • mpi-selector --list даст список доступных вариантов;
  • mpi-selector --query покажет текущий выбор (версию компилятора и MPI, используемую сейчас);
  • mpi-selector --set <name> установит выбранный вариант;
  • по умолчанию скрипты mpicc/mpicxx, mpif77/mpif90 работают с компилятором Intel и вариантом MPI mvapich.

После вызова mpi-selector --set необходимо открыть новую сессию на кластер - новые настройки заработают только в новой сессии.

Для компиляции программ, использующих технологию OpenMP, необходимо указать опцию соответствующего компилятора:

  • gcc/gfortran: -fopenmp
  • icc/ifort: -openmp
  • pgcc/pgCC/pgf77/pgf90: -mp

Например, для компиляции OpenMP-программы с Intel Fortran используйте командную строку ifort -openmp myprog.f, для компиляции гибридной MPI+OpenMP программы - строку mpif90 -openmp myprog.f


На кластере СКИФ МГУ доступны следующие пограммы и библиотеки: