Скачать презентацию
Идет загрузка презентации. Пожалуйста, подождите
Презентация была опубликована 12 лет назад пользователемwww.intuit.ru
1 Основы OpenMP Nikita Panov
2 OpenMP: Что это? Стандарт, позволяющий распараллеливать вычисления на системах с общей памятью. Преимущества: Простота использования. Переносимость. Низкие накладные расходы. Поддержка параллелизма по данным.
3 Синтаксис Compiler directives: C/C++ #pragma omp directive [clause, …] Fortran !$OMP directive [clause, …] C$OMP directive [clause, …] *$OMP directive [clause, …]
4 Параллельное исполнение Parallel Regions Основная конструкция OpenMP #pragma omp parallel { printf( hello world from thread %d of %d\n, omp_get_thread_num(), omp_get_num_threads() ); }
5 Параллельное исполнение Итак, большинство конструкций OpenMP – это дерективы компилятора Основная конструкция OpenMP это omp parallel [something]
6 OpenMP подход к параллелизму OpenMP основано на модели разделяемой памяти. Вычислительная задача распределяется на потоки. – Переменные могут быть общими для всех потоков; или каждый поток работает со своей независимой копией. Неосторожное или неправильное использование переменных может привести к неверной работе распараллеленной программы.
7 OpenMP подход к параллелизму Модель fork-join Исполнение программы начинается в одном потоке (master thread). Далее следует конструкция OpenMP Основной поток создает параллельные потоки. После завершения параллельной секции Ожидается завершение всех параллельных потоков. Основной поток продолжает исполнение.
8 Основные конструкции OpenMP #pragma omp for Каждый поток получает свою порцию работы – data parallelism. #pragma omp section Каждая такая секция будет исполняться в отдельном потоке – functional parallelism. #pragma omp single Последовательное (не параллельное) исполнение участка программы. Только один поток исполнит этот код.
9 OpenMP sections #pragma omp sections [ clause [ clause ]... ] new-line { [#pragma omp section new-line ] structured-block1 [#pragma omp section new-line structured-block2 ]... }
10 OpenMP sections #pragma omp parallel #pragma omp sections nowait { thread1_work(); #pragma omp section thread2_work(); #pragma omp section thread3_work(); #pragma omp section thread4_work(); } Functional Parallelism
11 OpenMP for directive #pragma omp for [ clause [ clause ]... Непосредственно следующий за директивой цикл будет исполнен параллельно (будет разделён по данным между исполнителями).
12 OpenMP for directive #pragma omp parallel private(f) { f=7; #pragma omp for for (i=0; i
13 OpenMP for directive Возможны следующие модификаторы: private( list ); reduction( operator: list ); schedule( type [, chunk ] ); nowait (для #pragma omp for). В конце цикла for происходит синхронизация, если не указана директива nowait. schedule указывает, как итерации распределятся среди потоков (поведение по умолчанию зависит от реализации).
14 Переменные в OpenMP private ( list ) Будут созданы уникальные локальные копии перечисленных переменных. shared ( list ) Потоки разделяют одну переменную. firstprivate ( list ) Создаются локальные переменные, инициализированные значением из основного потока. lastprivate ( list ) После завершения последней итерации значение переменной копируется в переменную основного потока. … По умолчанию все переменные shared, кроме локальных переменных в вызываемых функциях и счётчиков цикла.
15 Пример int x; x = 0;// Initialize x to zero #pragma omp parallel for firstprivate(x) // Copy value // of x // from master for (i = 0; i < 10000; i++) { x = x + i; } printf( x is %d\n, x );// Print out value of x /* Actually needs lastprivate(x) to copy value back out to master */
16 OpenMP schedule clause Разбиение итераций цикла по потокам или «диспетчеризация» schedule( type [, chunk ] ) type может принимать следующие значения: static: Статическая диспетчеризация. Каждый поток получает фиксированное количество итераций. dynamic:Динамическая диспетчеризация. guided: Фактически, постепенно уменьшающееся количество итераций. runtime: Тип диспетчеризации определяется в момент исполнения, в зависимости от значения переменных окружения.
17 Loop scheduling (планирование выполнения итераций цикла)
18 Основные функции OpenMP int omp_get_num_threads(void); int omp_get_thread_num(void); …
19 Синхронизация в OpenMP Неявная синхронизация происходит в начале и конце любой конструкции parallel (до тех пор, пока не указана директива nowait).
20 Синхронизация в OpenMP сritical – критическая секция. Не может исполняться одновременно несколькими потоками. atomic – специальная версия критической секции для атомарных операций (таких, как запись переменной). barrier – точка синхронизации всех потоков. ordered – последовательное исполнение. master – только основной поток исполняет следующий код. …
21 OpenMP critical cnt = 0; f=7; #pragma omp parallel { #pragma omp for for (i=0; i
22 Полная информация OpenMP Homepage: Introduction to OpenMP - tutorial from WOMPEI 2000 (link)(link) Writing and Tuning OpenMP Programs on Distributed Shared Memory Machines (link) (link) R.Chandra, L. Dagum, D. Kohr, D. Maydan, J. McDonald, R. Menon: Parallel programming in OpenMP. Academic Press, San Diego, USA, 2000, ISBN R. Eigenmann, Michael J. Voss (Eds): OpenMP Shared Memory Parallel Programming. Springer LNCS 2104, Berlin, 2001, ISBN X
23 10/17/10 Спасибо за внимание!
Еще похожие презентации в нашем архиве:
© 2024 MyShared Inc.
All rights reserved.