Параллельное программирование с использованием технологии MPI — различия между версиями

Материал из Department of Theoretical and Applied Mechanics
Перейти к: навигация, поиск
(Технология MPI)
Строка 26: Строка 26:
 
===2016-2017 год===
 
===2016-2017 год===
 
*[[Решение двумерного уравнения теплопроводности. Светличная Екатерина. 6 курс]]
 
*[[Решение двумерного уравнения теплопроводности. Светличная Екатерина. 6 курс]]
 +
*[[Вычисление числа Пи. Мирошник Глеб. 6 курс]]
  
 
== См. также ==
 
== См. также ==
  
 
[[Category: Программирование]]
 
[[Category: Программирование]]

Версия 16:08, 19 января 2017

Кафедра ТМ > Программирование>Параллельное программирование с использованием технологии MPI

Краткое описание

Message Passing Interface (MPI, интерфейс передачи сообщений) — программный интерфейс (API) для передачи информации, который позволяет обмениваться сообщениями между процессами, выполняющими одну задачу. Разработан Уильямом Гроуппом, Шаблон:Translation и другими.

MPI является наиболее распространённым стандартом интерфейса обмена данными в параллельном программировании, существуют его реализации для большого числа компьютерных платформ. Используется при разработке программ для кластеров и суперкомпьютеров. Основным средством коммуникации между процессами в MPI является передача сообщений друг другу.

Стандартизацией MPI занимается MPI Forum. В стандарте MPI описан интерфейс передачи сообщений, который должен поддерживаться как на платформе, так и в приложениях пользователя. В настоящее время существует большое количество бесплатных и коммерческих реализаций MPI. Существуют реализации для языков Фортран 77/90, Java, Си и Си++.

В первую очередь MPI ориентирован на системы с распределенной памятью, то есть когда затраты на передачу данных велики, в то время как OpenMP ориентирован на системы с общей памятью (многоядерные с общим кешем). Обе технологии могут использоваться совместно, чтобы оптимально использовать в кластере многоядерные системы.

Технология MPI

2015-2016 год

2016-2017 год

См. также