Архив новостей за 2001 год
- 10 января. На кластере установлена среда
программирования для языка Java - JDK 1.2.2.
- 11 января. Кластер временно
отключен в связи с ремонтом помещения и
модернизацией кластера.
- 22 января. Приносим свои извинения за задержку с введением кластера в строй.
- 29 января. В данный момент подключена головная
машина (cluster.parallel.ru) и файл-сервер (storage).
Дисковые квоты могут быть значительно
увеличены для пользователей, нуждающихся
в дисковом пространстве. Узлы кластера пока отключены
всвязи с техническими проблемами.
- 30 января. Кластер расширен еще 6 узлами. На каждом узле,
включая существующие, теперь установлено по 1 Гбайту памяти.
- 31 января. Расширенный кластер открыт для пользователей.
- 1 февраля. Получены новые данные производительности
по LINPACK - 9.7 Гфлопс (на задаче 44000x44000).
- 2 февраля. Все узлы подключены через источники бесперебойного
питания (3 штуки Powercom SmartKing 2000A). Установлена
станция визуализации.
- 6 февраля. Начинается сборка нового кластера (на процессорах
Pentium III/850 МГц).
- 9 февраля. Установлены 10 узлов и головная машина нового кластера.
Проводится установка MPI и системы очередей.
- 12 февраля. На 36 процессорах кластера на тесте
LINPACK получена производительность более 10 Гфлопс
(задача 44000x44000, использовались компиляторы GNU
и ScaMPI).
- 12 февраля. Доступна версия 3.30 системы DVM.
- 12 февраля. Для общего использования доступа
система трансляции с языка HPF
(GMD Adaptor).
- 15 февраля. Установлены все 20 узлов нового кластера.
Производится наладка и тестирование.
- 19 февраля. Доступна новая
фотография внешнего вида кластера.
- 19 февраля. Приносим свои извинения связи с отсутствием
удаленного доступа на кластер.
- 26 февраля. На кластере установлена библиотека
Atlas версии 3.2.0. Для подключения
следует использовать опции -lcblas, -lf77blas,
-latlas, -llapack. Для использования BLAS в программах
на языке С следует включать файл "cblas.h".
- 27 февраля. На 40 процессорах (Pentium III/850 МГц, кэш 256К)
нового кластера получена
производительность по LINPACK в 9.5 Гфлопс
(на задаче 40000x40000).
- 28 февраля. Начата опытная эксплуатация нового кластера.
- 1 марта. На кластер установлена новая версия
системы очередей. Создано два подраздела -
один для длинных задач (24 процессора) и другой
для коротких (12 процессоров).
- 11 марта. На новом кластере (SKY) установлена алтернативная
реализация MPI - LAM 6.3.2. Установлена параллельная
версия квантовохимического пакета PC-GAMESS.
- 12 марта. Завтра, 13 марта кластеры будут отключены
всвязи с профилактическими работами.
- 2 апреля. Установлена новая версия SSP - 2.1.2.
- 3 апреля. Установлена новая версия ядра Linux - 2.2.16
с необходимыми модификациями.
- 29 апреля. На кластере SKY производятся квантовохимические
расчеты с использованием пакета PC-GAMESS.
- 3 мая. Опубликованы новые
данные по производительности
кластеров SCI и SKY.
- 23 июля. На кластере SKY завершен длительный расчет
cтроения и колебательных спектров молекулы фуллерен[60]-пиперазина,
проведенный сотрудниками химического факультета МГУ
В.М.Сенявиным и А.А.Грановским. Расчет на 38 процессорах
потребовал примерно 7 суток счетного времени.
Более подробная информация об этой работе
доступна в формате Word 97.
- 24 июля. На кластере установлена
система параллельного программирования
ParJava, разработанная в ИСП РАН.
Проводятся эксперименты по производительности
системы. Адрес для контактов: arut@ispras.ru
(Арутюн Аветисян).
- 27 июля. Опубликована
информация о новых
командах для просмотра состояния очереди.
- 1 октября. Опубликована
информация о конфигурации кластера SKY.
- 9 ноября. К внутренней сети кластера
(Fast Ethernet) подключены два новых экспериментальных узла.
Конфигурация узлов - два процессора Pentium III/1 ГГц,
мат.плата Intel STL2, системная шина 133 МГц, 512 Мбайт памяти,
два диска IDE по 20 Гбайт. Новые узлы будут временно
использоваться для обеспечения учебного процесса на мехмате МГУ,
а в дальнейшем - для проведения совместных с НИИЯФ
экспериментов по распределенным вычислениям.
- 12 декабря. Проведены первые крупномасштабные эксперименты
по распределенным вычислениям.
- 13 декабря. Опубликован текст сообщения
об учебно-научном центре МГУ по высокопроизводительным вычислениям,
представленного на семинаре в Нижнем Новгороде в ноябре 2001 года.
Архив новостей за 2000 год
- Февраль 2000 года. Закупка оборудования, пилотное развертывание
кластера в сервис-центре "Инел". Установка ОС Linux.
- 1-15 марта. Наладка кластера в НИВЦ МГУ.
Установка SSP (Scali Software Platform) 2.0, компиляторов
C и Fortran.
Запуск тестов производительности MPI, тестов NPB, LINPACK.
- 20 марта. Проведена пресс-конференция, посвященная открытию кластера.
На пресс-конференции выступили представители НИВЦ МГУ, ректората МГУ
и компании "Инел".
- 20 марта. Установлена параллельная версия ПО трассировки сцен (PovRay).
- 21 марта. Опубликованы первые результаты тестов производительности.
- 27 марта. Проведено первое учебное занятие со студентами ВМиК МГУ.
- 27 апреля. Введена в действие первая версия
системы пакетной обработки.
- 5 мая. Инсталлирован MPICH 1.2.0 для поддержки MPI поверх Fast Ethernet.
Проведены тесты производительности для сравнения с SCI (ScaMPI).
- 18 мая. Создан список рассылки для пользователей кластера.
- 19 мая. Система пакетной обработки поддерживает
задание параметров через конфигурационный файл.
- 21 мая. Производится пробная установка
системы DVM.
- 24 мая. Произведено обновление ядра Linux на всех узлах
(до версии 2.2.14-6.0.2).
- 26 мая. Установлены квоты на дисковое пространство
и ограничения на число процессоров для приложений.
- 20 июня. В серии "Это интересно" опубликована статья
проф. Д.Д.Соколова (физфак МГУ) об опыте использования вычислительного кластера
в научных исследованиях -
"Параллельные вычисления и солнечный ветер".
- 21 июня. Доступна для общего пользования библиотека
SCALAPACK.
- 28 июня. В директории /home/software/petsc доступна библиотека PETSc.
- 11 июля. Проведены профилактические работы, связанные с подключением
кластера на другой Интернет-канал.
- 12 июля. Кластер снова доступен через Интернет.
Обращаем внимание, что сменился IP-адрес хост-компьютера.
Просьба временно использовать вместо символического имени
числовой адрес 158.250.50.238.
Вероятно, что в ближайшее время IP-адрес снова сменится,
так что следите за сообщениями.
- 12 июля. На кластере установлена и доступна для
всех пользователей DVM-система.
- 12 июля. Доступна библиотека Intel MKL (для
подключения используйте опцию -lmkl).
- 9 августа. На головной машине кластера установлена
реализация языка
РЕФАЛ-5 (в директории /usr/local/refal5).
- 24 августа. На кластере
произведена пробная установка
и тестирование среды программирования
"Т-система".
В настоящее время коммуникационное ПО работает
через Fast Ethernet. По сообщению разработчиков,
очередная версия будет работать
поверх MPI, т.е. через сеть SCI.
- 4 сентября. На кластере произведена
экспериментальная наладка системы
программирования PVM
(поверх Fast Ethernet).
Желающих воспользоваться системой просим
писать по адресу support@parallel.ru.
В дальнейшем возможна установка PVM поверх SCI.
- 14 сентября. Произведена установка математического пакета
FFTW
для быстрых преобразований Фурье (FFT).
Возможно использование параллельной версии пакета.
Также установлена библиотека DFFTPack (версия FFTpack
для double precision).
- 11 октября. Установлен для общего использования
компилятор языка НОРМА. Доступно руководство по использованию.
- 25 октября. Производится пробная установка компилятора с языка
mpC.
Начата работа по установке Библиотеки численного анализа НИВЦ МГУ.
- 27 октября. Для пользователей кластера
открыт Консультационный совет
Учебно-научного центра МГУ по высокопроизводительным вычислениям.
- 29 октября. Перед конференцией на кластере были
проведены эксперименты с использованием
систем параллельного программирования DVM и Т-система.
- 27 октября. С участием специалиста компании "Инел"
проведена профилактика аппаратуры вычислительных узлов.
- 4 ноября. На головной машине кластера
доступны утилиты конвертации форматов файлов DOS/UNIX
(различные символы конца строки) и кодировок KOI-8/DOS/Windows.
- 9 ноября. С командной строки доступны man-страницы для
процедур MPI. Например, по команде "man MPI_Send" можно получить
описание процедуры MPI_Send (на английском языке).
- 10 ноября. На кластере обновлена версия Scali Software Platform -
установлена версия SSP 2.0.2. Планируется обновление до версии 2.1.
Обновлено ядро Linux.
- 17 ноября. Исправлена проблема с периодическим пропаданием
связи по SSH и FTP. Возможно, что вход на кластер через FTP
через некоторое время будет отключен.
- 24 ноября. Производится пробное тестирование
аппаратуры Watchdog; эта аппаратура будет обеспечивать
автоматическую перезагрузку узлов кластера в случае зависания.
- 25 ноября. Всвязи с планами отключения FTP, читайте
об альтернативных способах передачи файлов.
- 25 ноября. В тестовом режиме на кластере доступна
Библиотека численного анализа НИВЦ.
- 29 ноября. Установлен пакет SSP 2.1, включающий
новую версию ScaMPI - 1.10. Улучшилась производительность пересылок
внутри SMP-узла.