Вопросы к зачету по курсу Вл.В.Воеводина
"Параллельная обработка данных"

1. Виды параллельной обработки данных, их особенности. 
2. История появления параллелизма в архитектуре ЭВМ. 
3. Закон Амдала, его следствие, суперлинейное ускорение. 
4. Оценка вычислительной сложности больших задач. 
5. Основные классы современных параллельных вычислительных систем.
6. Параллелизм на уровне машинных команд, суперскалярные и VLIW процессоры.
7. UMA, NUMA и ccNUMA архитектуры, компьютеры Cm*, BBN Butterfly.
8. Соотношение между понятиями: устройство, операция, обработка и их 
характеристиками: скалярный, векторный, конвейерный.
9. Общая структура компьютера CRAY C90. 
10. Регистровая структура процессора CRAY C90. 
11. Параллельная обработка программ на компьютере CRAY C90. 
12. Понятие векторной обработки данных, зацепление ФУ. 
13. Причины уменьшения производительности компьютера CRAY C90: 
закон Амдала, секционирование векторных операций, время разгона конвейера. 
14. Причины уменьшения производительности компьютера CRAY C90: 
конфликты в памяти, ограниченная пропускная способность каналов передачи 
данных, необходимость использования векторных регистров. 
15. Причины уменьшения производительности компьютера CRAY C90: 
ограниченный набор векторных регистров, несбалансированность в использовании 
ФУ, отсутствие устройства деления, перезагрузка буферов команд. 
16. Архитектура компьютера Earth Simulator
17. Общая структура компьютера CRAY T3E: вычислительные узлы и процессорные элементы. 
18. Общая структура компьютера CRAY T3E: коммуникационная сеть. 
19. Общая структура компьютера CRAY T3E: аппаратная поддержка синхронизации 
параллельных процессов. 
20. Причины уменьшения производительности компьютера CRAY T3E. 
21. Вычислительные кластеры: узлы, коммуникационная сеть (латентность, 
пропускная способность).
22. Общая структура компьютера Hewlett-Packard Superdome.
23. Причины уменьшения производительности компьютера Hewlett-Packard Superdome.
24. Графовые модели программ, их взаимосвязь. 
25. Теорема о построении графа алгоритма для линейного класса программ. 
26. Этапы решения задач на параллельных вычислительных системах.
27. Модели передачи сообщений: Send/Recv и Put/Get.
28. Модели параллельных программ: SPMD, мастер/рабочие.
29. MPI: общая структура. 
30. MPI: синхронное и асинхронное взаимодействие процессов. 
31. MPI: различные виды операторов Send. 
32. MPI: глобальные операции, барьеры. 
33. MPI: коммуникаторы. 
34. OpenMP: общая концепция. 
35. OpenMP: основные конструкции для организации параллельных и 
последовательных секций, синхронизации.
36. OpenMP: основные конструкции для работы с общими и локальными данными.
37. Linda: общая концепция, пространство кортежей, примеры программ.
38. Linda: специальные функции для работы с пространством кортежей. 
39. Метакомпьютер и метакомпьютинг. Отличительные свойства метакомпьютеров.

Литература

1. Воеводин В.В., Воеводин Вл.В. Параллельные вычисления. - СПб.: 
БХВ-Петербург, 2002. - 608 с.

2. Воеводин Вл.В., Филамофитский М.П. Суперкомпьютер на выходные 
//Открытые системы. 2003, N5,С.43-48.

3. Материалы информационно-аналитического центра Parallel.ru


© Лаборатория Параллельных Информационных Технологий, НИВЦ МГУ
Rambler's Top100