Кластерные установки России и СНГ
Пожалуйста, присылайте нам(link sends e-mail) сведения об установленных в Вашей организации или других известных Вам кластерных установках для включения в данную таблицу. Для внесения данных рекомендуем использовать нашу форму.
Примеры организации вычислительных кластеров:
- Кластер Leo, г.Москва, НИВЦ МГУ (2003 год, 32 процессора, сеть SCI)
- Кластер Ant, г.Москва, НИВЦ МГУ (2004 год, 160 процессоров, сеть InfiniBand)
- Кластер Infinity, г.Челябинск, СЦ ЮУрГУ (2005 год, 52 процессора, сеть InfiniBand)
- Кластер INFINI, г.Ростов-на-Дону, ЮГИНФО ЮФУ (2005 год, 22 процессора, сеть InfiniBand)
- Кластер CLI, ИПХФ РАН, п.Черноголовка (2005 год, 16 процессоров, сеть Gigabit Ethernet)
- Кластер CLI-X, ИПХФ РАН, п.Черноголовка (2005 год, 26 процессоров, сеть 2xGigabit Ethernet)
- Кластер НКС-160, г.Новосибирск, ИВМиМГ СО РАН, Сибирский Суперкомпьютерный Центр коллективного пользования (2006/2007 год, 80 процессоров, сеть InfiniBand 10GB/s)
- Кластер СКИФ Cyberia, г.Томск, Томский государственный университет (2007 год, 566 процессоров, сеть InfiniBand)
- Кластер Twin1 (Twin2), г.Москва, НИВЦ МГУ (2007 год, 48 процессоров, сеть InfiniBand)
- Кластер МЭИ(ТУ), г.Москва, МЭИ(ТУ) (2007 год, 32 процессора, сеть InfiniBand)
Кластер Leo, г.Москва, НИВЦ МГУ
Место установки кластера | г.Москва, НИВЦ МГУ |
Год установки кластера | 2003 |
Условное название | Leo |
Количество узлов в кластере | 16 |
Количество процессоров на узел | 2 |
Тип процессоров | Intel Xeon 2.6 ГГц |
Объём оперативной памяти на узел | 2 Гбайт |
Тип коммуникационной сети | SCI |
Марка сетевых карт и коммутатора | SCI D335 |
Тип транспортной сети | 100Mbit Ethernet |
Тип управляющей сети | ServNet2 |
Количество жёстких дисков на узел | 2 |
Форм-фактор узлов | MidiTower |
Форм-фактор управляющего узла | Tower |
Объём общего файлового хранилища | 1.5 Тбайт |
Тип общей файловой системы | NFS |
Является ли файловое хранилище одновременно и головной машиной или вычислительным узлом? | Нет |
Размеры и число стоек | Металлические стеллажи |
Используется ли UPS? | Да |
Суммарная потребляемая мощность кластера | 3.8 кВт |
Тип системы кондиционирования | Потолочные кондиционеры |
Общая мощность системы кондиционирования | 70 кВт |
Площадь помещения | Около 80 кв.м. |
Высота потолков в помещении | Около 5 м. |
Используется ли помещение в иных целях? В каких? | Нет |
Средства мониторинга состояния помещения | Аппаратный мониторинг температуры и влажности помещения с программным контролем |
Средства мониторинга параметров кластера | Температура процессора и скорости вращения вентиляторов через пакет lm_sensors с оповещением |
Версия ОС | Linux RedHat 7.3 |
Версия параллельной среды | Scali SSP 3.1.0 |
Версии компиляторов | Intel C+Fortran 9.1 |
Дополнительное ПО для вычислительных задач | Intel mkl 8.0.2 |
Система управления очередями | Cleo5 |
Тип доступа и способ авторизации пользователей | Удалённый доступ по ssh |
Производительность пиковая / HPL | 166.4 / 104.3 GFlop/s |
Кластер Ant, г.Москва, НИВЦ МГУ
Место установки кластера | г.Москва, НИВЦ МГУ |
Год установки кластера | 2004 |
Условное название | Ant |
Количество узлов в кластере | 80 |
Количество процессоров на узел | 2 |
Тип процессоров | AMD Opteron 248 2.2 ГГц |
Объём оперативной памяти на узел | 4 Гбайт |
Тип коммуникационной сети | InfiniBand |
Марка сетевых карт и коммутатора | Mellanox MT23108, коммутатор Mellanox MTS3100 |
Тип транспортной сети | Gigabit Ethernet |
Тип управляющей сети | HP LightsOut100 |
Количество жёстких дисков на узел | 2 |
Форм-фактор узлов | 1U |
Форм-фактор управляющего узла | 4U |
Объём общего файлового хранилища | 1.5 Тбайт |
Тип общей файловой системы | NFS |
Является ли файловое хранилище одновременно и головной машиной или вычислительным узлом? | Нет |
Размеры и число стоек | 4 х 19", высота 2 метра |
Используется ли UPS? | Да |
Суммарная потребляемая мощность кластера | 40 кВт |
Тип системы кондиционирования | Потолочные кондиционеры |
Общая мощность системы кондиционирования | 70 кВт |
Площадь помещения | Около 80 кв.м. |
Высота потолков в помещении | Около 5 м. |
Используется ли помещение в иных целях? В каких? | Нет |
Средства мониторинга состояния помещения | Аппаратный мониторинг температуры и влажности помещения с программным контролем |
Средства мониторинга параметров кластера | Состояние жёстких дисков через пакет hdparm с оповещением |
Версия ОС | SuSE Linux 10.0 |
Версия параллельной среды | Mvapich-0.9.5-mlx2.0.1 |
Версии компиляторов | Intel C+Fortran 9.1 |
Дополнительное ПО для вычислительных задач | Intel mkl 8.0.2 |
Система управления очередями | Cleo5 |
Тип доступа и способ авторизации пользователей | Удалённый доступ по ssh |
Производительность пиковая / HPL | 704 / 512 GFlop/s |
Кластер Infinity, г.Челябинск, СЦ ЮУрГУ
Место установки кластера | г.Челябинск, СЦ ЮУрГУ |
Год установки кластера | 2005 |
Условное название | Infinity |
Количество узлов в кластере | 26 |
Количество процессоров на узел | 2 |
Тип процессоров | Intel Xeon64 DP 3.2 ГГц EM64T |
Объем оперативной памяти на узел | 2 Гбайт |
Тип коммуникационной сети | InfiniBand |
Марка сетевых карт и коммутатора | Mellanox IB |
Тип транспортной сети | Gigabit Ethernet |
Тип управляющей сети | Нет |
Количество жестких дисков на узел | 1 |
Форм-фактор узлов | 4U |
Форм-фактор управляющего узла | 4U |
Объём общего файлового хранилища | 400 Гбайт |
Тип общей файловой системы | NFS |
Является ли файловое хранилище одновременно и головной машиной или вычислительным узлом? | Да (для некоторых задач) |
Размеры и число стоек | 3 стойки APC 42U |
Используется ли UPS? | Только на управляющем узле |
Суммарная потребляемая мощность кластера | 10 кВт |
Тип системы кондиционирования | Настенно-потолочный кондиционер |
Общая мощность системы кондиционирования | 17.6 КВт по охлаждению |
Площадь помещения | 28 кв.м. |
Высота потолков в помещении | 3.5 м. |
Используется ли помещение в иных целях? В каких? | Нет |
Средства мониторинга состояния помещения | Нет |
Средства мониторинга параметров кластера | Нет |
Версия ОС | SUSE Linux Enterprise Server 9 |
Версия параллельной среды | Mvapich |
Версии компиляторов | Intel С/C++ 9.1 EM64T Intel Fortran 9.1 EM64T Intel Fortran 77 9.1 EM64T |
Дополнительное ПО для вычислительных задач | LSTC LS-DYNA ANSYS CFX 10 ANSYS |
Система управления очередями | Cleo 5 |
Тип доступа и способ авторизации пользователей | Удаленный доступ по ssh |
Производительность пиковая / HPL | 333.2 / 270.1 GFlop/s |
Кластер INFINI, г.Ростов-на-Дону, ЮГИНФО ЮФУ
Место установки кластера | г.Ростов-на-Дону, ЮГИНФО ЮФУ |
Год установки кластера | 2005 |
Условное название | INFINI |
Количество узлов в кластере | 22 |
Количество процессоров на узел | 1 |
Тип процессоров | Pentium 4 550, 3.4 ГГц |
Объём оперативной памяти на узел | 2 Гбайт |
Тип коммуникационной сети | InfiniBand |
Марка сетевых карт и коммутатора | Mellanox MT25208, коммутатор Mellanox MTS2400 |
Тип транспортной сети | Gigabit Ethernet |
Тип управляющей сети | Нет |
Количество жёстких дисков на узел | 1 |
Форм-фактор узлов | MidiTower |
Форм-фактор управляющего узла | MidiTower |
Объём общего файлового хранилища | 100 Гбайт + 2x500 Гбайт PVFS |
Тип общей файловой системы | NFS |
Является ли файловое хранилище одновременно и головной машиной или вычислительным узлом? | Да, нет |
Размеры и число стоек | 4 х 19", 42U |
Используется ли UPS? | Да |
Суммарная потребляемая мощность кластера | 5 кВт |
Тип системы кондиционирования | Настенные кондиционеры 2шт |
Общая мощность системы кондиционирования | 30 кВт |
Площадь помещения | Около 60 кв.м. |
Высота потолков в помещении | 4 м. |
Используется ли помещение в иных целях? В каких? | Размещен 2-й кластер из 10 компьютеров |
Средства мониторинга состояния помещения | Программный контроль датчиков UPS |
Средства мониторинга параметров кластера | Программный контроль сенсоров узлов |
Версия ОС | SuSE Linux Pro 9.3 |
Версия параллельной среды | Mvapich-0.9.8 |
Версии компиляторов | Intel C+Fortran 8.0, SuSE Gcc |
Дополнительное ПО для вычислительных задач | Intel mkl 8.0.2, Aztec |
Система управления очередями | Torque-2.1.2 |
Тип доступа и способ авторизации пользователей | Удалённый доступ по ssh |
Производительность пиковая / HPL | 142 / 116 GFlop/s |
Кластер CLI, ИПХФ РАН, п.Черноголовка
Место установки кластера | п.Черноголовка, ИПХФ РАН |
Год установки кластера | 2005 |
Условное название | Cli |
Количество узлов в кластере | 4 |
Количество процессоров на узел | 4 |
Тип процессоров | Intel Itanium2 1.5 ГГц, 400 МГц |
Объём оперативной памяти на узел | 20 Гбайт |
Тип коммуникационной сети | 1 Gbit Ethernet |
Марка сетевых карт и коммутатора | Intel 82546-3x1Gbit PCI-X; 3Com 3C16470 |
Тип транспортной сети | 1 Gbit Ethernet |
Тип управляющей сети | Нет |
Количество жёстких дисков на узел | 3 |
Форм-фактор узлов | 4U |
Форм-фактор управляющего узла | Нет |
Объём общего файлового хранилища | 146 Гбайт |
Тип общей файловой системы | NFS |
Является ли файловое хранилище одновременно и головной машиной или вычислительным узлом? | Нет |
Размеры и число стоек | 1 x 19" шкаф PrimeCenter 24U, глубина 1000 мм |
Используется ли UPS? | Да |
Суммарная потребляемая мощность кластера | 5.0 кВт |
Тип системы кондиционирования | Настенные кондиционеры |
Общая мощность системы кондиционирования | 25 кВт |
Площадь помещения | Около 70 кв.м. |
Высота потолков в помещении | Около 4 м. |
Используется ли помещение в иных целях? В каких? | Размещены два кластера |
Средства мониторинга состояния помещения | Mониторинг температуры и влажности помещения |
Средства мониторинга параметров кластера | Нет |
Версия ОС | RedHat Enterprice Linux AS 4.2 for IA64 |
Версия параллельной среды | MPICH 1.2.7 |
Версии компиляторов | Intel C+9.0, Intel Fortran 9.0 |
Дополнительное ПО для вычислительных задач | Intel mkl 7.2.1 |
Система управления очередями | PBS Pro Altair 7.0 |
Тип доступа и способ авторизации пользователей | Удалённый доступ по telnet из локальной сети Института |
Производительность пиковая / HPL | 96 / 68.06 GFlop/s |
Кластер CLI-X, ИПХФ РАН, п.Черноголовка
Место установки кластера | п.Черноголовка, ИПХФ РАН |
Год установки кластера | 2006 |
Условное название | cli-x |
Количество узлов в кластере | 13 |
Количество процессоров на узел | 2 |
Тип процессоров | 20xXeon 3.6 ГГц, 6xXeon 3.8 ГГц |
Объём оперативной памяти на узел | 4 Гбайт |
Тип коммуникационной сети | 2x1 Gbit Ethernet |
Марка сетевых карт и коммутатора | Intel 3x1Gbit PCI-X; 2x3Com Switch 2824 (3C16479) |
Тип транспортной сети | 1 Gbit Ethernet |
Тип управляющей сети | Нет |
Количество жёстких дисков на узел | 2 |
Форм-фактор узлов | MidiTower |
Форм-фактор управляющего узла | Нет |
Объём общего файлового хранилища | 250 Гбайт |
Тип общей файловой системы | NFS |
Является ли файловое хранилище одновременно и головной машиной или вычислительным узлом? | Да |
Размеры и число стоек | Нет |
Используется ли UPS? | Да |
Суммарная потребляемая мощность кластера | 7.8 кВт |
Тип системы кондиционирования | Настенные кондиционеры |
Общая мощность системы кондиционирования | 25 кВт |
Площадь помещения | Около 70 кв.м. |
Высота потолков в помещении | Около 4 м. |
Используется ли помещение в иных целях? В каких? | Размещены два кластера |
Средства мониторинга состояния помещения | Mониторинг температуры и влажности помещения |
Средства мониторинга параметров кластера | Нет |
Версия ОС | Scientific Linux Cern 4.2 for EMT64 |
Версия параллельной среды | MPICH 1.2.7 |
Версии компиляторов | Intel C+9.1, Intel Fortran 9.1 |
Дополнительное ПО для вычислительных задач | Intel mkl 8.1 |
Система управления очередями | Torque 2 |
Тип доступа и способ авторизации пользователей | Удалённый доступ по telnet из локальной сети Института |
Кластер НКС-160, г.Новосибирск, ИВМиМГ СО РАН, Сибирский Суперкомпьютерный Центр коллективного пользования
Место установки кластера | г.Новосибирск, ИВМиМГ СО РАН, Сибирский Суперкомпьютерный Центр коллективного пользования |
Год установки кластера | 2006/2007 |
Условное название | НКС-160 (Новосибирский кластерный суперкомпьютер) |
Количество узлов в кластере | 84 |
Количество процессоров на узел | 2 |
Тип процессоров | Intel Itanium 2 1.6 ГГц, 3 Мбайт SLC |
Объём оперативной памяти на узел | 4 Гбайт |
Тип коммуникационной сети | InfiniBand 10 GB/s |
Марка сетевых карт и коммутатора | Voltaire HCA 400, коммутаторы Voltaire ISR 9024 (11 шт.) |
Тип транспортной сети | Gigabit Ethernet |
Тип управляющей сети | Fast Ethernet |
Количество жёстких дисков на узел | 1 |
Форм-фактор узлов | 1U (hp Integrity rx1620) |
Форм-фактор управляющего узла | 2U (hp Integrity rx2600) |
Объём общего файлового хранилища | 1.5 Тбайт (дополнительно) |
Тип общей файловой системы | NFS |
Является ли файловое хранилище одновременно и головной машиной или вычислительным узлом? | директории пользователей монтируются по NFS с frontend; файловое хранилище это доп. возможность |
Размеры и число стоек | 3 x 19", 42U |
Используется ли UPS? | Да |
Суммарная потребляемая мощность кластера | 35 кВт |
Тип системы кондиционирования | Прецизионный кондиционер Air Blue (Италия) |
Общая мощность системы кондиционирования | 2 контура по 32 кВт |
Площадь помещения | 70 кв.м. |
Высота потолков в помещении | 3.2 м, в том числе фальшпол 0.34 м и фальшпотолок 0.15 м. |
Используется ли помещение в иных целях? В каких? | Нет |
Средства мониторинга состояния помещения | Контроль температуры и влажности помещения датчиками кондиционера. Охранная сигнализация. Автоматическая система аэрозольного пожаротушения. |
Средства мониторинга параметров кластера | ganglia (Rocks 4.1) плюс HP Systems Insight Manager |
Версия ОС | Red Hat Enterprise Linux ES release 4 и Rocks 4.1 |
Версия параллельной среды | mvapich (ibhost-hpc-3.5.0_16-S2rhas4.k2.6.9_34.EL.ia64.rpm от Voltaire) |
Версии компиляторов | Intel C++ / Fortran 10.1 |
Дополнительное ПО для вычислительных задач | Intel MKL 10.0, Fluent 6.3, Gaussian 03 |
Система управления очередями | Grid Engine |
Тип доступа и способ авторизации пользователей | Удалённый доступ по ssh |
Производительность пиковая/HPL | 1075/828.7 GFlop/s |
Кластер СКИФ Cyberia, г.Томск, Томский государственный университет
Место установки кластера | г.Томск, Томский государственный университет |
Год установки кластера | 2007 |
Условное название | СКИФ Cyberia |
Количество узлов в кластере | 283 |
Количество процессоров на узел | 2 |
Тип процессоров | Intel Xeon 5150, 2.66 ГГц |
Объём оперативной памяти на узел | 4 Гбайт |
Тип коммуникационной сети | InfiniBand |
Марка сетевых карт и коммутатора | QLogic InfiniPath, Silverstorm InfinI09240 |
Тип транспортной сети | Gigabit Ethernet |
Тип управляющей сети | ServNet |
Количество жёстких дисков на узел | 1 |
Форм-фактор узлов | 1U |
Форм-фактор управляющего узла | 2U |
Объём общего файлового хранилища | 10 Тбайт |
Тип общей файловой системы | PanFS |
Является ли файловое хранилище одновременно и головной машиной или вычислительным узлом? | Нет |
Размеры и число стоек | 8 (вычислитель) + 6 (систем бесперебойного электропитания) x 19", 42U |
Используется ли UPS? | Да |
Суммарная потребляемая мощность кластера | 115 кВт |
Тип системы кондиционирования | модульная внутрирядная |
Общая мощность системы кондиционирования | 96 кВт |
Площадь помещения | 72 кв.м. |
Высота потолков в помещении | 4 м. |
Используется ли помещение в иных целях? В каких? | Нет |
Средства мониторинга состояния помещения | APC InfraStruXure |
Средства мониторинга параметров кластера | Ganglia |
Версия ОС | SuSe Linux Enterprise Server 10, Microsoft Windows Compute Cluster Server 2003 |
Версия параллельной среды | QLogic MPI |
Версии компиляторов | gcc 4.1.0, Intel FORTRAN compiler 9.1, Intel C/C++ compiler 9.1 |
Дополнительное ПО для вычислительных задач | Intel MKL, Fluent 6.3, Gambit 2.3 |
Система управления очередями | Torque |
Тип доступа и способ авторизации пользователей | ssh2 |
Производительность пиковая / HPL | 12 / 9.013 TFlop/s |
Кластер Twin1 (Twin2), г.Москва, НИВЦ МГУ
Место установки кластера | г.Москва, НИВЦ МГУ |
Год установки кластера | 2007 |
Условное название | Twin1 (Twin2) |
Количество узлов в кластере | 24 |
Количество процессоров на узел | 2 |
Тип процессоров | AMD Opteron 285, 2.6 ГГц |
Объём оперативной памяти на узел | 16 Гбайт |
Тип коммуникационной сети | InfiniBand 4x |
Тип транспортной сети | Gigabit Ethernet |
Тип управляющей сети | ServNet2 |
Количество жёстких дисков на узел | 1 |
Форм-фактор узлов | 1U |
Форм-фактор управляющего узла | 2U |
Объём общего файлового хранилища | 1.5 Тбайт |
Тип общей файловой системы | NFS |
Является ли файловое хранилище одновременно и головной машиной или вычислительным узлом? | Нет |
Размеры и число стоек | 1 x 19", 42U |
Используется ли UPS? | Да |
Суммарная потребляемая мощность кластера | 15 кВт |
Тип системы кондиционирования | Потолочные кондиционеры |
Общая мощность системы кондиционирования | 70 кВт |
Площадь помещения | Около 80 кв.м. |
Высота потолков в помещении | Около 5 м. |
Используется ли помещение в иных целях? В каких? | Нет |
Средства мониторинга состояния помещения | Аппаратный мониторинг температуры и влажности помещения с программным контролем |
Средства мониторинга параметров кластера | Состояние жёстких дисков через пакет hdparm с оповещением |
Версия ОС | SuSe Linux Enterprise Server 10 |
Версия параллельной среды | Qlogic InfiniPath Release 2.0 |
Версии компиляторов | Intel C+Fortran 9.1 |
Система управления очередями | Cleo5 |
Тип доступа и способ авторизации пользователей | Удалённый доступ по ssh |
Производительность пиковая / HPL | 499.2 / 440 GFlop/s |
Кластер МЭИ(ТУ), г.Москва, МЭИ(ТУ)
Место установки кластера | г.Москва, Московский Энергетический Институт (Технический Университет) |
Год установки кластера | 2007 |
Условное название (если есть) | Кластер МЭИ(ТУ) |
Количество узлов в кластере | 16 |
Количество процессоров на узел | 2 |
Тип процессоров | AMD Opteron x86_64, 2.2 ГГц |
Объём оперативной памяти на узел | 4 Гбайт |
Тип коммуникационной сети | InfiniBand 10 Gb/s |
Марка сетевых карт и коммутатора (если есть) | Flextronics F-X430044 |
Тип транспортной сети (если есть) | Gigabit Ethernet |
Тип управляющей сети (если есть) | Нет |
Количество жёстких дисков на узел | 1 |
Форм-фактор узлов (1U, 2U,.. , MidiTower,?) | 1U |
Форм-фактор управляющего узла (если есть) | 1U |
Объём общего файлового хранилища | 2.44 Тбайт |
Тип общей файловой системы (NFS, SMB, etc.) | NFS |
Является ли файловое хранилище одновременно и головной машиной или вычислительным узлом? | Нет |
Размеры и число стоек (если есть) | 1 стойка, 2000х600х1040 мм |
Используется ли UPS? | Да |
Суммарная потребляемая мощность кластера | 7 кВт |
Тип системы кондиционирования | Настенные кондиционеры |
Общая мощность системы кондиционирования | 35 кВт |
Площадь помещения | 60 кв.м. |
Высота потолков в помещении | 3 м. |
Используется ли помещение в иных целях? В каких? | Нет |
Средства мониторинга состояния помещения | Контроль температуры и влажности помещения датчиками кондиционера. |
Средства мониторинга параметров кластера | Ganglia |
Версия ОС | SuSe Linux Enterprise Server 10 |
Версия параллельной среды (mpich, mvapich, lam... +номер версии) | mvapich2-0.9.8 |
Версии компиляторов | gcc 4.1.0, Intel FORTRAN compiler 9.1, Intel C/C++ compiler 9.1 |
Дополнительное ПО для вычислительных задач (библиотеки, программные пакеты и т.п.) | Blas2, NAG Parallel Library |
Система управления очередями | Torque-2.1.2 |
Тип доступа и способ авторизации пользователей | Удалённый доступ по ssh |
Производительность пиковая/HPL | 281.6 / 231.8 GFlop/s |
© Лаборатория Параллельных информационных технологий, НИВЦ МГУ