Суперкомпьютер SuperMUC-NG

Иванов Д. Е.,
ВМК МГУ,
Москва, 2018


1 Введение

В декабре 2017 года Суперкомпьютерный центр Лейбница Баварской Академии Наук и Гуманитарных наук представил следующее поколение суперкомпьютера SuperMUC-NG.

Рисунок 1 . Суперкомпьютер SupeMUC-NG

Открытие планировалось на начало 2019 года, однако на данный момент компьютер уже работает в пользовательском режиме. Согласно некоторым источникам он был пущен в работу в сентябре 2018 года.

Финансирование SuperMUC-NG делится поровну между правительством Германии и Свободным Государством Бавария. Общая стоимость проекта 96 миллионов евро на шесть лет, включая электричество, поддержку и обслуживание [1].

2 Технические характеристики

Таблица 1. Технические характеристики системы.

Вычислительные узлы

Тонкие узлы

Толстые узлы

Всего

Процессоры

Intel Xeon Platinum 8174 24C 3.1GHz

Ядер на узел

48

48

48

Память на узел (GByte)

96

768

NA

Число узлов

6,336

144

6,480

Общее число ядер

304,128

8,912

311,040

Суммарная пиковая производительность (PFlop/s)

26.3

0.6

26.9

Linpack (Pflop/s)

TBD[1]

TBD

19.476

Память (TByte)

608

111

719

Файловые системы

Высокопроизводительная параллельная файловая система 

50 PB @  500 GB/s

Хранилище научных данных

20 PB @ 70 GB/s  

Хранилище пользовательских данных

256 TB @ HDD-Tier 6 GB/s / SSD-Tier 25 GB/s

 

Инфраструктура

Охлаждение

Прямое, теплой водой

Использование выработанного тепла

Используются поглощающие охладители.

Программное обеспечение

Операционная система

SUSE Linux Enterprise Server 12 SP3

Система управления задачами

SLURM

Распределенная файловая система 

IBM Spectrum Scale (GPFS)

Окружение разработки

Intel Parallel Studio XE
GNU compilers
OpenHPC Software Stack

Межпроцессная коммуникация

Intel MPI, (OpenMPI).

Облачные компоненты

Узлы с двуми Nvidia V100 GPUs 
Узлы без GPU

32
32

Система построена из 6480 вычислительных узлов Lenovo ThinkSystem SD650 DWC на базе процессоров Intel Xeon Scalable. Иллюстрацию устройства можно видеть на рисунках 2, 3. Технические подробности можно изучить на странице продукта [2].

Из них:

  • 144 Толстых узла. На каждом 48 ядер и 768 ГБ памяти.
  • 6446 Тонких узла. На каждом 48 ядер и 96 ГБ памяти.

Всего 311040 вычислительных ядер и 719 ТБ памяти. Теоретическая пиковая производительность составляет 26.7 PFLOP/s. На тесте Linpack система показала результат приблизительно 72% от пиковой производительности. На тесте HPCG производительность составила всего лишь 208 Терафлопс.

Дополнительно имеется 64 облачных узла, половина из которых снабжена двумя Nvidia V100 GPU. По заявлениям создателей, эти узлы нужны, чтобы соответствовать современным представлениям о работе с большими объемами данных и их визуализацией.

Рисунок 2. Внутренний вид двух модулей SD650 в ячейке с водяным охлаждением.

Рисунок 3. Функциональная блок-схема узла SD650

Блок-схема узла SD650 представлена на рис. 3. Согласно схеме, узел построен на чипсете Intel C624 PCH, а также снабжен большим количеством высокоскоростных слотов PCIe. Надо отметить, что пара процессоров Intel Xeon соединяются между собой посредством Intel Ultra Path Interconnect. Такое соединение обеспечивает пропускную способность до 10.5 GT/s. Для расширенного мониторинга системы и возможностей тонкой настройки поведения установлен чип XCC (XClarity Controller) от Lenovo.

Вычислительные узлы устанавливаются в корпус NeXtScale n1200 DWC, как показано на рис. 4.

Рисунок 4. Корпус NeXtScale n1200 DWC. Вид сзади.

Коммуникация между узлами производится по скоростной сети Intel OmniPath с заявленной пропускной способностью 100 Gbit/s.

Вычислительные узлы объединяются в 8 доменов (островов). Внутри каждого домена реализована коммуникационная топология Толстое дерево. Во избежание нежелательного трафика OmniPath между островами обрезана (pruned) со значением Prune-Factor равным 4.

3 Хранение данных

Под данные пользователей выделено 256 ТБ хранилища.

Для непродолжительного хранения больших файлов (до нескольких недель) предусмотрено 16 ПБ дискового пространства, работающего на скорости ~200 ГБ/c. Здесь предполагается хранить данные для возобновления расчета, либо промежуточные результаты обработки. Для продолжительного хранения (до окончания проекта) результатов расчета выделено 34 ПБ на скорости ~300 ГБ/с. Для хранения файлов проекта и загрузки информации извне выделено 20 ПБ хранилища, подключенного к высокоскоростному каналу связи, оптимизированному для передачи файлов. Загрузку можно производить через простой графический интерфейс пользователя [3].

4 Управление задачами

Для управления очередью задач и загрузкой используется менеджер нагрузки с открытым кодом SLURM (Simple Linux Utility for Resource Management [4]). Предусмотрены следующие классы пользовательских задач

Таблица 2. Классы задач, разрешенные на суперкьмпьютере SuperMUC-NG.

Класс задач

Разрешенное число узлов

Максимум доступной памяти

Ядер на каждый узел

Максимальное время работы ( часов )

Одновременно выполняющихся задач на пользователя

Mixed (еще не доступен)

64-3168

90 BG / 760 GB

48

12 (будет увеличено)

1

test

1-16

90 GB

48

0.5

1

micro

1-16

90 GB

48

48

20

general

17-792

90 GB

48

48

20

fat

1-128

760 GB

48

48

2

large

793-3168 
(половина системы)

760 GB

48

12 
(будет увеличено)

5

5 Энергоэффективность

Подобно своему предшественнику (SuperMUC) SuperMUC-NG охлаждается теплой водой. Lenovo разработали концепцию охлаждения, которая еще больше снизит потребление энергии, вместе с использованием генерируемой суперкомпьютером тепловой энергии для повторного охлаждения воды. О технологии можно прочитать подробнее в статье [5].

Заявляется, что кластеры SD650 DWC могут выдерживать температуру входной воды до 50 градус цельсия, при 85-95 процентной рекуперации тепла. На выходе из узла вода имеет температуру 58-60 градусов цельсия, в зависимости от нагрузки. Далее поглощающий охладитель уменьшает ее температуру до 20 градусов, приемлемых для охлаждения дискового массива и коммуникационной среды. Поглощенная энергия воды может быть использована для питания самого компьютера [1].

6 Список использованных источников

1 Eisenreich. S, «SuperMUC-NG: In the Service of Science», - «InSiDE» Innovative Supercomputing in Deutchland, - стр. 10-12, - Spring 2018,- Vol. 16, - No. 1

2 Watts D., ThinkSystem SD650 Direct Water Cooled Server Product Guide,- Электронный ресурс. URL: https://lenovopress.com/lp0636-thinksystem-sd650-direct-water-cooled-server/ ( дата обращения 20.12.18 )

3 SuperMUC-NG File Systems, - Электронный ресурс. URL: https://doku.lrz.de/display/PUBLIC/SuperMUC-NG+File+Systems ( дата обращения 20.12.18 )

4 Slurm Workload Manager, -  Электронный ресурс. URL: https://slurm.schedmd.com/ ( дата обращения 20.12.18 )

5 Ott M., Kranzlmuller D. Best Practices in Energy-Efficient High Performance Computing, - Christian Czarnecki et al. (Hrsg.): Workshops der INFORMATIK 2018, Lecture Notes in Informatics (LNI), Gesellschaft für Informatik, Bonn 2018 167


[1] TBD (To Be Defined) - величина не была измерена на момент написания работы