Архив новостей за 2001 год

  • 10 января. На кластере установлена среда программирования для языка Java - JDK 1.2.2.
  • 11 января. Кластер временно отключен в связи с ремонтом помещения и модернизацией кластера.
  • 22 января. Приносим свои извинения за задержку с введением кластера в строй.
  • 29 января. В данный момент подключена головная машина (cluster.parallel.ru) и файл-сервер (storage). Дисковые квоты могут быть значительно увеличены для пользователей, нуждающихся в дисковом пространстве. Узлы кластера пока отключены всвязи с техническими проблемами.
  • 30 января. Кластер расширен еще 6 узлами. На каждом узле, включая существующие, теперь установлено по 1 Гбайту памяти.
  • 31 января. Расширенный кластер открыт для пользователей.
  • 1 февраля. Получены новые данные производительности по LINPACK - 9.7 Гфлопс (на задаче 44000x44000).
  • 2 февраля. Все узлы подключены через источники бесперебойного питания (3 штуки Powercom SmartKing 2000A). Установлена станция визуализации.
  • 6 февраля. Начинается сборка нового кластера (на процессорах Pentium III/850 МГц).
  • 9 февраля. Установлены 10 узлов и головная машина нового кластера. Проводится установка MPI и системы очередей.
  • 12 февраля. На 36 процессорах кластера на тесте LINPACK получена производительность более 10 Гфлопс (задача 44000x44000, использовались компиляторы GNU и ScaMPI).
  • 12 февраля. Доступна версия 3.30 системы DVM.
  • 12 февраля. Для общего использования доступа система трансляции с языка HPF (GMD Adaptor).
  • 15 февраля. Установлены все 20 узлов нового кластера. Производится наладка и тестирование.
  • 19 февраля. Доступна новая фотография внешнего вида кластера.
  • 19 февраля. Приносим свои извинения связи с отсутствием удаленного доступа на кластер.
  • 26 февраля. На кластере установлена библиотека Atlas версии 3.2.0. Для подключения следует использовать опции -lcblas, -lf77blas, -latlas, -llapack. Для использования BLAS в программах на языке С следует включать файл "cblas.h".
  • 27 февраля. На 40 процессорах (Pentium III/850 МГц, кэш 256К) нового кластера получена производительность по LINPACK в 9.5 Гфлопс (на задаче 40000x40000).
  • 28 февраля. Начата опытная эксплуатация нового кластера.
  • 1 марта. На кластер установлена новая версия системы очередей. Создано два подраздела - один для длинных задач (24 процессора) и другой для коротких (12 процессоров).
  • 11 марта. На новом кластере (SKY) установлена алтернативная реализация MPI - LAM 6.3.2. Установлена параллельная версия квантовохимического пакета PC-GAMESS.
  • 12 марта. Завтра, 13 марта кластеры будут отключены всвязи с профилактическими работами.
  • 2 апреля. Установлена новая версия SSP - 2.1.2.
  • 3 апреля. Установлена новая версия ядра Linux - 2.2.16 с необходимыми модификациями.
  • 29 апреля. На кластере SKY производятся квантовохимические расчеты с использованием пакета PC-GAMESS.
  • 3 мая. Опубликованы новые данные по производительности кластеров SCI и SKY.
  • 23 июля. На кластере SKY завершен длительный расчет cтроения и колебательных спектров молекулы фуллерен[60]-пиперазина, проведенный сотрудниками химического факультета МГУ В.М.Сенявиным и А.А.Грановским. Расчет на 38 процессорах потребовал примерно 7 суток счетного времени. Более подробная информация об этой работе доступна в формате Word 97.
  • 24 июля. На кластере установлена система параллельного программирования ParJava, разработанная в ИСП РАН. Проводятся эксперименты по производительности системы. Адрес для контактов: arut@ispras.ru (Арутюн Аветисян).
  • 27 июля. Опубликована информация о новых командах для просмотра состояния очереди.
  • 1 октября. Опубликована информация о конфигурации кластера SKY.
  • 9 ноября. К внутренней сети кластера (Fast Ethernet) подключены два новых экспериментальных узла. Конфигурация узлов - два процессора Pentium III/1 ГГц, мат.плата Intel STL2, системная шина 133 МГц, 512 Мбайт памяти, два диска IDE по 20 Гбайт. Новые узлы будут временно использоваться для обеспечения учебного процесса на мехмате МГУ, а в дальнейшем - для проведения совместных с НИИЯФ экспериментов по распределенным вычислениям.
  • 12 декабря. Проведены первые крупномасштабные эксперименты по распределенным вычислениям.
  • 13 декабря. Опубликован текст сообщения об учебно-научном центре МГУ по высокопроизводительным вычислениям, представленного на семинаре в Нижнем Новгороде в ноябре 2001 года.

Архив новостей за 2000 год

  • Февраль 2000 года. Закупка оборудования, пилотное развертывание кластера в сервис-центре "Инел". Установка ОС Linux.
  • 1-15 марта. Наладка кластера в НИВЦ МГУ. Установка SSP (Scali Software Platform) 2.0, компиляторов C и Fortran. Запуск тестов производительности MPI, тестов NPB, LINPACK.
  • 20 марта. Проведена пресс-конференция, посвященная открытию кластера. На пресс-конференции выступили представители НИВЦ МГУ, ректората МГУ и компании "Инел".
  • 20 марта. Установлена параллельная версия ПО трассировки сцен (PovRay).
  • 21 марта. Опубликованы первые результаты тестов производительности.
  • 27 марта. Проведено первое учебное занятие со студентами ВМиК МГУ.
  • 27 апреля. Введена в действие первая версия системы пакетной обработки.
  • 5 мая. Инсталлирован MPICH 1.2.0 для поддержки MPI поверх Fast Ethernet. Проведены тесты производительности для сравнения с SCI (ScaMPI).
  • 18 мая. Создан список рассылки для пользователей кластера.
  • 19 мая. Система пакетной обработки поддерживает задание параметров через конфигурационный файл.
  • 21 мая. Производится пробная установка системы DVM.
  • 24 мая. Произведено обновление ядра Linux на всех узлах (до версии 2.2.14-6.0.2).
  • 26 мая. Установлены квоты на дисковое пространство и ограничения на число процессоров для приложений.
  • 20 июня. В серии "Это интересно" опубликована статья проф. Д.Д.Соколова (физфак МГУ) об опыте использования вычислительного кластера в научных исследованиях - "Параллельные вычисления и солнечный ветер".
  • 21 июня. Доступна для общего пользования библиотека SCALAPACK.
  • 28 июня. В директории /home/software/petsc доступна библиотека PETSc.
  • 11 июля. Проведены профилактические работы, связанные с подключением кластера на другой Интернет-канал.
  • 12 июля. Кластер снова доступен через Интернет. Обращаем внимание, что сменился IP-адрес хост-компьютера. Просьба временно использовать вместо символического имени числовой адрес 158.250.50.238. Вероятно, что в ближайшее время IP-адрес снова сменится, так что следите за сообщениями.
  • 12 июля. На кластере установлена и доступна для всех пользователей DVM-система.
  • 12 июля. Доступна библиотека Intel MKL (для подключения используйте опцию -lmkl).
  • 9 августа. На головной машине кластера установлена реализация языка РЕФАЛ-5 (в директории /usr/local/refal5).
  • 24 августа. На кластере произведена пробная установка и тестирование среды программирования "Т-система". В настоящее время коммуникационное ПО работает через Fast Ethernet. По сообщению разработчиков, очередная версия будет работать поверх MPI, т.е. через сеть SCI.
  • 4 сентября. На кластере произведена экспериментальная наладка системы программирования PVM (поверх Fast Ethernet). Желающих воспользоваться системой просим писать по адресу support@parallel.ru. В дальнейшем возможна установка PVM поверх SCI.
  • 14 сентября. Произведена установка математического пакета FFTW для быстрых преобразований Фурье (FFT). Возможно использование параллельной версии пакета. Также установлена библиотека DFFTPack (версия FFTpack для double precision).
  • 11 октября. Установлен для общего использования компилятор языка НОРМА. Доступно руководство по использованию.
  • 25 октября. Производится пробная установка компилятора с языка mpC. Начата работа по установке Библиотеки численного анализа НИВЦ МГУ.
  • 27 октября. Для пользователей кластера открыт Консультационный совет Учебно-научного центра МГУ по высокопроизводительным вычислениям.
  • 29 октября. Перед конференцией на кластере были проведены эксперименты с использованием систем параллельного программирования DVM и Т-система.
  • 27 октября. С участием специалиста компании "Инел" проведена профилактика аппаратуры вычислительных узлов.
  • 4 ноября. На головной машине кластера доступны утилиты конвертации форматов файлов DOS/UNIX (различные символы конца строки) и кодировок KOI-8/DOS/Windows.
  • 9 ноября. С командной строки доступны man-страницы для процедур MPI. Например, по команде "man MPI_Send" можно получить описание процедуры MPI_Send (на английском языке).
  • 10 ноября. На кластере обновлена версия Scali Software Platform - установлена версия SSP 2.0.2. Планируется обновление до версии 2.1. Обновлено ядро Linux.
  • 17 ноября. Исправлена проблема с периодическим пропаданием связи по SSH и FTP. Возможно, что вход на кластер через FTP через некоторое время будет отключен.
  • 24 ноября. Производится пробное тестирование аппаратуры Watchdog; эта аппаратура будет обеспечивать автоматическую перезагрузку узлов кластера в случае зависания.
  • 25 ноября. Всвязи с планами отключения FTP, читайте об альтернативных способах передачи файлов.
  • 25 ноября. В тестовом режиме на кластере доступна Библиотека численного анализа НИВЦ.
  • 29 ноября. Установлен пакет SSP 2.1, включающий новую версию ScaMPI - 1.10. Улучшилась производительность пересылок внутри SMP-узла.