Параллельное программирование с использованием технологии MPI — различия между версиями

Материал из Department of Theoretical and Applied Mechanics
Перейти к: навигация, поиск
(2016-2017 год)
 
(не показана 1 промежуточная версия 1 участника)
Строка 28: Строка 28:
 
*[[Вычисление числа Пи. Мирошник Глеб. 6 курс]]
 
*[[Вычисление числа Пи. Мирошник Глеб. 6 курс]]
 
*[[Численная оценка интеграла методом Монте-Карло. Антонов Илья. 6 курс]]
 
*[[Численная оценка интеграла методом Монте-Карло. Антонов Илья. 6 курс]]
 +
*[[Численные эксперименты с параллельным программированием. Шубин Андрей. 6 курс]]
 +
*[[Решение двумерного уравнения теплопроводности. Черногорский Вячеслав. 6 курс]]
  
 
== См. также ==
 
== См. также ==
  
 
[[Category: Программирование]]
 
[[Category: Программирование]]

Текущая версия на 02:47, 20 февраля 2017

Кафедра ТМ > Программирование>Параллельное программирование с использованием технологии MPI

Краткое описание[править]

Message Passing Interface (MPI, интерфейс передачи сообщений) — программный интерфейс (API) для передачи информации, который позволяет обмениваться сообщениями между процессами, выполняющими одну задачу. Разработан Уильямом Гроуппом, Шаблон:Translation и другими.

MPI является наиболее распространённым стандартом интерфейса обмена данными в параллельном программировании, существуют его реализации для большого числа компьютерных платформ. Используется при разработке программ для кластеров и суперкомпьютеров. Основным средством коммуникации между процессами в MPI является передача сообщений друг другу.

Стандартизацией MPI занимается MPI Forum. В стандарте MPI описан интерфейс передачи сообщений, который должен поддерживаться как на платформе, так и в приложениях пользователя. В настоящее время существует большое количество бесплатных и коммерческих реализаций MPI. Существуют реализации для языков Фортран 77/90, Java, Си и Си++.

В первую очередь MPI ориентирован на системы с распределенной памятью, то есть когда затраты на передачу данных велики, в то время как OpenMP ориентирован на системы с общей памятью (многоядерные с общим кешем). Обе технологии могут использоваться совместно, чтобы оптимально использовать в кластере многоядерные системы.

Технология MPI[править]

2015-2016 год[править]

2016-2017 год[править]

См. также[править]