Численные эксперименты с параллельным программированием. Шубин Андрей. 6 курс — различия между версиями

Материал из Department of Theoretical and Applied Mechanics
Перейти к: навигация, поиск
Строка 1: Строка 1:
 
==Цель работы==
 
==Цель работы==
 
Наибольший интерес при применении технологии параллельных вычислений в решении различного рода задач представляет наблюдение и анализ убывания времени расчета при увеличении числа процессов. Зная эту характеристику можно определить, какой из различных методов решения задачи будет предпочтительней при заданных условиях.
 
Наибольший интерес при применении технологии параллельных вычислений в решении различного рода задач представляет наблюдение и анализ убывания времени расчета при увеличении числа процессов. Зная эту характеристику можно определить, какой из различных методов решения задачи будет предпочтительней при заданных условиях.
Основной целью данной работы стало параллельное вычисление двойного интеграла для произвольной функции и исследование сходимости точности и времени вычислений в зависимости от числа процессов, как пример использования средств параллельного програмирования на основе MPI, а также вычисление числа пи как площадь единичной окружности тем же методом.
+
Основной целью данной работы стало параллельное вычисление двойного интеграла для произвольной функции и исследование сходимости точности и времени вычислений в зависимости от числа процессов, как пример использования средств параллельного программирования на основе MPI, а также вычисление числа пи как площадь единичной окружности тем же методом.
 
==Метод исследования==
 
==Метод исследования==
 
Параллельное программирование служит для создания программ, эффективно использующих вычислительные ресурсы за счет одновременного исполнения кода на нескольких вычислительных узлах. Для создания параллельных приложений используются параллельные языки программирования и специализированные системы поддержки параллельного программирования, такие как MPI - библиотека передачи сообщений, собрание функций на C/C++, облегчающих коммуникацию (обмен данными и синхронизацию задач) между процессами параллельной программы с распределенной памятью. Под параллельной программой в рамках MPI понимается множество одновременно выполняемых процессов. Все процессы порождаются один раз, образуя параллельную часть программы. Каждый процесс работает в своем адресном пространстве, никаких общих переменных или данных в MPI нет. Процессы могут выполняться на разных процессорах, но на одном процессоре могут располагаться и несколько процессов (в этом случае их исполнение осуществляется в режиме разделения времени).
 
Параллельное программирование служит для создания программ, эффективно использующих вычислительные ресурсы за счет одновременного исполнения кода на нескольких вычислительных узлах. Для создания параллельных приложений используются параллельные языки программирования и специализированные системы поддержки параллельного программирования, такие как MPI - библиотека передачи сообщений, собрание функций на C/C++, облегчающих коммуникацию (обмен данными и синхронизацию задач) между процессами параллельной программы с распределенной памятью. Под параллельной программой в рамках MPI понимается множество одновременно выполняемых процессов. Все процессы порождаются один раз, образуя параллельную часть программы. Каждый процесс работает в своем адресном пространстве, никаких общих переменных или данных в MPI нет. Процессы могут выполняться на разных процессорах, но на одном процессоре могут располагаться и несколько процессов (в этом случае их исполнение осуществляется в режиме разделения времени).
 
==Решение задачи==
 
==Решение задачи==
[[File:MPI2.gif]]
+
[[File:MPI2.gif]]<br>
 
Для тестирования метода параллельного вычисления был взят двойной интеграл для функции <math>\int_0^1 \int_0^1 cos^3(xy)*sin^2(x)dxdy</math> заключенный в квадрат [(0,1);(0,1)]. При расчете указанного интеграла используется метод прямоугольников для двумерной задачи, изображение метода можно увидеть на gif-изображениях.
 
Для тестирования метода параллельного вычисления был взят двойной интеграл для функции <math>\int_0^1 \int_0^1 cos^3(xy)*sin^2(x)dxdy</math> заключенный в квадрат [(0,1);(0,1)]. При расчете указанного интеграла используется метод прямоугольников для двумерной задачи, изображение метода можно увидеть на gif-изображениях.
Отрезок [0..1] разбивается на заданное количество интервалов: N = 1000, 5000 и 10000. Заданное количество интервалов распределяется между определенным количеством процессов. На каждом полученном таким способом интервале процесс интегрирования осуществляется отдельным процессом, при этом в связи с использованием явной схемы соседние процессы должны обмениваться крайними значениями, полученными на предыдущем шаге, для выполнения следующего шага. Суммируя результаты, полученные каждым отдельным процессом, мы получаем конечный результат.
+
Отрезок [0..1] разбивается на заданное количество интервалов: N = 1000, 5000 и 10000. Заданное количество интервалов распределяется между определенным количеством процессов. На каждом полученном таким способом интервале процесс интегрирования осуществляется отдельным процессом, при этом в связи с использованием явной схемы соседние процессы должны обмениваться крайними значениями, полученными на предыдущем шаге, для выполнения следующего шага. Суммируя результаты, полученные каждым отдельным процессом, мы получаем конечный результат.<br>
 
[[File:MPI1.gif]]
 
[[File:MPI1.gif]]
 
Универсальность программного кода позволила тем же методом вычислить число пи как площадь единичной окружности.<br>
 
Универсальность программного кода позволила тем же методом вычислить число пи как площадь единичной окружности.<br>
 
Код программы:[[:File:MPI_experiments.rar| программа]]
 
Код программы:[[:File:MPI_experiments.rar| программа]]
 +
(Закомментировав 9,14,15,16 строку кода и раскомментировав 10,17,18,19 строку соответственно, можно получить вторую часть программы.)
 
==Результаты==
 
==Результаты==
 
Вычислен определенный интеграл <math>\int_0^1 \int_0^1 cos^3(xy)*sin^2(x)dxdy</math>.<br>
 
Вычислен определенный интеграл <math>\int_0^1 \int_0^1 cos^3(xy)*sin^2(x)dxdy</math>.<br>
Строка 16: Строка 17:
 
{| class="wikitable" width="300" floating="center"
 
{| class="wikitable" width="300" floating="center"
 
!Количество процессоров [pcs]
 
!Количество процессоров [pcs]
!Время рассчета [sec]
+
!Время расчета [sec]
 
!Результат [-]
 
!Результат [-]
 
!Абсолютная ошибка [-]
 
!Абсолютная ошибка [-]
Строка 24: Строка 25:
 
|0.2105614
 
|0.2105614
 
|-1.46E-05
 
|-1.46E-05
 +
|-
 
|2  
 
|2  
 
|9.305
 
|9.305
 
|0.2105614
 
|0.2105614
 
|-1.46E-05
 
|-1.46E-05
 +
|-
 
|4  
 
|4  
 
|4.905
 
|4.905
 
|0.2105614
 
|0.2105614
 
|-1.46E-05
 
|-1.46E-05
 +
|-
 
|8  
 
|8  
 
|2.869
 
|2.869
 
|0.2105614
 
|0.2105614
 
|-1.46E-05
 
|-1.46E-05
 +
|-
 
|16  
 
|16  
 
|14.258
 
|14.258
Строка 41: Строка 46:
 
|-1.46E-05
 
|-1.46E-05
 
|}
 
|}
<gallery widths=356px heights=233px perrow = 1>
 
Файл:Plot_x_2.jpg
 
</gallery>
 
 
Показано, что при увеличении количества процессов уменьшается время расчета. Также из приведенного графика видно, что для малого числа узлов в сетке использование большого количества процессов не обосновано - выигрыш во времени либо незначителен, либо же затраченное время увеличивается.
 
Показано, что при увеличении количества процессов уменьшается время расчета. Также из приведенного графика видно, что для малого числа узлов в сетке использование большого количества процессов не обосновано - выигрыш во времени либо незначителен, либо же затраченное время увеличивается.
 
==Выводы==
 
==Выводы==

Версия 10:44, 15 февраля 2017

Цель работы

Наибольший интерес при применении технологии параллельных вычислений в решении различного рода задач представляет наблюдение и анализ убывания времени расчета при увеличении числа процессов. Зная эту характеристику можно определить, какой из различных методов решения задачи будет предпочтительней при заданных условиях. Основной целью данной работы стало параллельное вычисление двойного интеграла для произвольной функции и исследование сходимости точности и времени вычислений в зависимости от числа процессов, как пример использования средств параллельного программирования на основе MPI, а также вычисление числа пи как площадь единичной окружности тем же методом.

Метод исследования

Параллельное программирование служит для создания программ, эффективно использующих вычислительные ресурсы за счет одновременного исполнения кода на нескольких вычислительных узлах. Для создания параллельных приложений используются параллельные языки программирования и специализированные системы поддержки параллельного программирования, такие как MPI - библиотека передачи сообщений, собрание функций на C/C++, облегчающих коммуникацию (обмен данными и синхронизацию задач) между процессами параллельной программы с распределенной памятью. Под параллельной программой в рамках MPI понимается множество одновременно выполняемых процессов. Все процессы порождаются один раз, образуя параллельную часть программы. Каждый процесс работает в своем адресном пространстве, никаких общих переменных или данных в MPI нет. Процессы могут выполняться на разных процессорах, но на одном процессоре могут располагаться и несколько процессов (в этом случае их исполнение осуществляется в режиме разделения времени).

Решение задачи

MPI2.gif
Для тестирования метода параллельного вычисления был взят двойной интеграл для функции [math]\int_0^1 \int_0^1 cos^3(xy)*sin^2(x)dxdy[/math] заключенный в квадрат [(0,1);(0,1)]. При расчете указанного интеграла используется метод прямоугольников для двумерной задачи, изображение метода можно увидеть на gif-изображениях. Отрезок [0..1] разбивается на заданное количество интервалов: N = 1000, 5000 и 10000. Заданное количество интервалов распределяется между определенным количеством процессов. На каждом полученном таким способом интервале процесс интегрирования осуществляется отдельным процессом, при этом в связи с использованием явной схемы соседние процессы должны обмениваться крайними значениями, полученными на предыдущем шаге, для выполнения следующего шага. Суммируя результаты, полученные каждым отдельным процессом, мы получаем конечный результат.
MPI1.gif Универсальность программного кода позволила тем же методом вычислить число пи как площадь единичной окружности.
Код программы: программа (Закомментировав 9,14,15,16 строку кода и раскомментировав 10,17,18,19 строку соответственно, можно получить вторую часть программы.)

Результаты

Вычислен определенный интеграл [math]\int_0^1 \int_0^1 cos^3(xy)*sin^2(x)dxdy[/math].
При числе разбиений N = 1000:

Количество процессоров [pcs] Время расчета [sec] Результат [-] Абсолютная ошибка [-]
1 18.348 0.2105614
2 9.305 0.2105614
4 4.905 0.2105614
8 2.869 0.2105614
16 14.258 0.2105614

Показано, что при увеличении количества процессов уменьшается время расчета. Также из приведенного графика видно, что для малого числа узлов в сетке использование большого количества процессов не обосновано - выигрыш во времени либо незначителен, либо же затраченное время увеличивается.

Выводы