Численные эксперименты с параллельным программированием. Шубин Андрей. 6 курс

Материал из Department of Theoretical and Applied Mechanics
Перейти к: навигация, поиск

Цель работы[править]

Наибольший интерес при применении технологии параллельных вычислений в решении различного рода задач представляет наблюдение и анализ убывания времени расчета при увеличении числа процессов. Зная эту характеристику можно определить, какой из различных методов решения задачи будет предпочтительней при заданных условиях. Основной целью данной работы стало параллельное вычисление двойного интеграла для произвольной функции и исследование сходимости точности и времени вычислений в зависимости от числа процессов, как пример использования средств параллельного программирования на основе MPI, а также вычисление числа пи как площадь единичной окружности тем же методом.

Метод исследования[править]

Параллельное программирование служит для создания программ, эффективно использующих вычислительные ресурсы за счет одновременного исполнения кода на нескольких вычислительных узлах. Для создания параллельных приложений используются параллельные языки программирования и специализированные системы поддержки параллельного программирования, такие как MPI - библиотека передачи сообщений, собрание функций на C/C++, облегчающих коммуникацию (обмен данными и синхронизацию задач) между процессами параллельной программы с распределенной памятью. Под параллельной программой в рамках MPI понимается множество одновременно выполняемых процессов. Все процессы порождаются один раз, образуя параллельную часть программы. Каждый процесс работает в своем адресном пространстве, никаких общих переменных или данных в MPI нет. Процессы могут выполняться на разных процессорах, но на одном процессоре могут располагаться и несколько процессов (в этом случае их исполнение осуществляется в режиме разделения времени).

Решение задачи[править]

MPI2.gif
Для тестирования метода параллельного вычисления был взят двойной интеграл для функции [math]\int_0^1 \int_0^1 cos^3(xy)*sin^2(x)dxdy[/math] заключенный в квадрат [(0,1);(0,1)]. При расчете указанного интеграла используется метод прямоугольников для двумерной задачи, изображение метода можно увидеть на gif-изображениях. Отрезок [0..1] разбивается на заданное количество интервалов: N = 1000, 5000 и 10000. Заданное количество интервалов распределяется между определенным количеством процессов. На каждом полученном таким способом интервале процесс интегрирования осуществляется отдельным процессом, при этом в связи с использованием явной схемы соседние процессы должны обмениваться крайними значениями, полученными на предыдущем шаге, для выполнения следующего шага. Суммируя результаты, полученные каждым отдельным процессом, мы получаем конечный результат.
MPI1.gif
Универсальность программного кода позволила тем же методом вычислить число пи как площадь единичной окружности.
Код программы: программа (Закомментировав 9,14,15,16 строку кода и раскомментировав 10,17,18,19 строку соответственно, можно получить вторую часть программы.)

Результаты[править]

Вычислен определенный интеграл [math]\int_0^1 \int_0^1 cos^3(xy)*sin^2(x)dxdy[/math].
При числе разбиений N = 1000:

Количество процессоров [pcs] Вчера вычисления [sec] Результат [-] Абсолютная ошибка [-]
1 0.186 0.2104277 -1.48E-04
2 0.093 0.2104277 -1.48E-04
4 0.053 0.2104277 -1.48E-04
8 0.033 0.2104277 -1.48E-04
16 0.077 0.2067926 -3.78E-03

При числе разбиений N = 5000:

Количество процессоров [pcs] Вчера вычисления [sec] Результат [-] Абсолютная ошибка [-]
1 4.612 0.2105466 -2.94E-05
2 2.321 0.2105466 -2.94E-05
4 1.231 0.2105466 -2.94E-05
8 0.724 0.2105466 -2.94E-05
16 3.487 0.2098185 -7.57E-04

При числе разбиений N = 10000:

Количество процессоров [pcs] Вчера вычисления [sec] Результат [-] Абсолютная ошибка [-]
1 18.348 0.2105614 -1.46E-05
2 9.305 0.2105614 -1.46E-05
4 4.905 0.2105614 -1.46E-05
8 2.869 0.2105614 -1.46E-05
16 14.258 0.2105614 -1.46E-05

Вычислено число пи как площадь единичной окружности тем же методом.
При числе разбиений N=1000:

Количество процессоров [pcs] Вчера вычисления [sec] Результат [-] Абсолютная ошибка [-]
1 0.029 3.141300 -2.93E-04
2 0.014 3.141300 -2.93E-04
4 0.010 3.141300 -2.93E-04
8 0.008 3.141300 -2.93E-04
16 0.006 3.137100 -4.41E-03

При числе разбиений N=5000:

Количество процессоров [pcs] Вчера вычисления [sec] Результат [-] Абсолютная ошибка [-]
1 0.698 3.141564 -2.87E-05
2 0.353 3.141564 -2.87E-05
4 0.213 3.141564 -2.87E-05
8 0.148 3.141564 -2.87E-05
16 0.65 3.141195 -3.97E-04

При числе разбиений N=10000:

Количество процессоров [pcs] Вчера вычисления [sec] Результат [-] Абсолютная ошибка [-]
1 2.787 3.141586 -6.77E-06
2 1.457 3.141586 -6.77E-06
4 0.824 3.141586 -6.77E-06
8 0.587 3.141586 -6.77E-06
16 0.580 3.141586 -6.77E-06

Выводы[править]

Исходя из полученных результатов, можно сделать следующие выводы:

  • Для 1-8 процессоров распараллеливание задачи выполнено идеально по результату и по погрешности.
  • Время расчета уменьшается, но не кратно количеству процессоров, что указывает на недостатки метода.
  • При увеличении количества разбиений точность увеличивается, как и время расчета.
  • Для 16 процессоров в некоторых случаях видно увеличение время расчета и ошибки, можно сделать вывод, что для каждой задачи необходим отдельный выбор оптимального количества процессоров.