Конфигурация суперкомпьютера СКИФ МГУ "Чебышев" (доступ не предоставляется!)
Разделы (очереди):
Раздел | ядер | память | диски | max проц-часов | max время (часов) | max задач | max запущенных |
regular | 4152 | 8 ГБ (1 ГБ/ядро) | нет | 20000 | 72 | 50 | 20 |
hdd | 520 | 8 ГБ (1 ГБ/ядро) | есть | 3120 | 72 | 10 | 5 |
hddmem | 256 | 16 ГБ (2 ГБ/ядро) | есть | 1536 | 72 | 10 | 5 |
bigmem | 64 | 32 ГБ (4 ГБ/ядро) | есть | 384 | 72 | 5 | 3 |
test | 80 | 8 ГБ (1 ГБ/ядро) | нет | 1200 | 50 | 10 | 10 |
"max проц-часов" означает лимит процессоро-часов на пользователя. Процессоро-часы для задачи - произведение числа занятых ядер и затребованного времени для задачи в часах. Сумма процесоро-часов запущенных пользователем задач не может превышать этот лимит.
"max задач" - максимальное число задач пользователя в очереди, включая запущенные.
"max запущенных" - максимальное число запущенных задач пользователя.
Для раздела (очереди) test лимит времени на одну задачу - 15 минут. Для остальных разделов - 3 суток.
Все вычислительные узлы кластера объединены в общий раздел (очередь) main. Доступ к очереди main закрыт для пользователей по умолчанию. Если у Вас есть необходимость использовать все ресурсы суперкомпьютера, обратитесь с заявкой к Вл.В. Воеводину (voevodin@parallel.ru).
Для каждого пользователя устанавлена дисковая квота 50ГБ и 100.000 файлов. За соблюдением этой квоты пользователь обязан следить самостоятельно.
Для запуска однопроцессорных или OpenMP-задач можно воспользоваться опцией команды mpirun -t ppn=X, где X - число требуемых ядер на узел. Ключом -np задаётся число MPI-процессов. Например, ppn=1 означает запуск одного MPI-процесса на узел, а ppn=2 - одного процесса на физический процессор. Подробнее - смотрите в документации на системное ПО.
Для запуска openmpi и IntelMPI-программ указывайте профиль openmpi и intel соответственно.
Указать профиль можно ключом -as команды mpirun.
Например, для запуска приложения Intel-MPI на 20 узлах, на каждом из которых мы хотим запустить только по 2 MPI-процесса, используйте команду mpirun -np 40 -t ppn=2 -as intel ./myprogram
На кластере СКИФ МГУ доступны следующие компиляторы:
- Intel Compilers 11.0. (C,C++,Fortran77/90,95) Команды: icc, ifort
- Portland Group Inc. Compilers 7.2-3 (C,C++,Fortran77/90,95) Команды: pgcc, pgCC, pgf77, pgf90, pgf95
- PathScale Compiler Suite: Version 3.2 (C,C++,Fortran90/95) Команды: pathcc, pathCC, pathf90, pathf95
- GNU 4.1.2 (C,C++,Fortran) Команды: gcc, gfortran
Для компиляции параллелных программ используйте программы:
- mpicc/mpicxx/mpif77/mpif90
Для указания компилятора и версии MPI, с которыми вы хотите работатьь, необходимо воспользоваться утилитой mpi-selector:
- mpi-selector --list даст список доступных вариантов;
- mpi-selector --query покажет текущий выбор (версию компилятора и MPI, используемую сейчас);
- mpi-selector --set <name> установит выбранный вариант;
- по умолчанию скрипты mpicc/mpicxx, mpif77/mpif90 работают с компилятором Intel и вариантом MPI mvapich.
После вызова mpi-selector --set необходимо открыть новую сессию на кластер - новые настройки заработают только в новой сессии.
Для компиляции программ, использующих технологию OpenMP, необходимо указать опцию соответствующего компилятора:
- gcc/gfortran: -fopenmp
- icc/ifort: -openmp
- pgcc/pgCC/pgf77/pgf90: -mp
Например, для компиляции OpenMP-программы с Intel Fortran используйте командную строку ifort -openmp myprog.f, для компиляции гибридной MPI+OpenMP программы - строку mpif90 -openmp myprog.f
На кластере СКИФ МГУ доступны следующие пограммы и библиотеки:
- Intel MKL; Рекомендуем использовать инструмент MKL Link Advisor,
- Intel TBB,
- PC-GAMESS,
- FlowVision.