Мінімізація часу виконання задачі за рахунок розподілу навантаження між декількома обчислювальними пристроями, паралельна модель програмування. Процес розробки паралельного алгоритму. Забезпечення комунікацій між підзадачами, забезпечення надійності.
Контрольна робота Паралельні обчислення з використанням MPI Зміст 1. Що таке MPI/MPICH? 3. MPI у прикладах 3.1 Найпростіша MPI-програма 3.2 Обмін повідомленнями 3.3 Колективний обмін даними 3.4 Паралельний введення-виведення 4. Модель паралелізми даних має на увазі незалежну обробку даних кожним процесом (наприклад, векторні операції з масивами). Що таке MPI/MPICH?. Якщо ж один процес послідовно посилає кілька повідомлень іншому процесу, MPI гарантує, що одержувач одержить їхній саме в тім порядку, у якому вони були відправлені. Ми будемо розглядати реалізацію MPICH.NT 1.2.4 для Windows NT. 3. MPI у прикладах 3.1 Найпростіша MPI-програма Ми почнемо наше знайомство з MPI з вивчення найпростішої програми: ===== Example1.cpp ===== #include // очевидно;) #include int main(int argc, char* argv[]) { int myrank, size; MPI_Init(&argc,&argv); // Ініціалізація MPI MPI_Comm_size(MPI_COMM_WORLD,&size); // Розмір комунікатора MPI_Comm_rank(MPI_COMM_WORLD,&myrank); // Одержуємо наш номер printf(Proc %d of %d
,myrank,size); MPI_Finalize(); // Фіналізація MPI puts (Done.); return 0; } ===== Example1.cpp ===== Перед викликом будь-якої процедури MPI, потрібно викликати ініціалізацію MPI_Init, перед цим викликом може знаходитися тільки виклик MPI_Initialized, призначення якого очевидно. Після виконання всіх обмінів повідомленнями в програмі повинний розташовуватися виклик MPI_Finalize() - процедура видаляє всі структури даних MPI і робить інші необхідні дії.
Вы можете ЗАГРУЗИТЬ и ПОВЫСИТЬ уникальность своей работы