Скачать презентацию
Идет загрузка презентации. Пожалуйста, подождите
Презентация была опубликована 11 лет назад пользователемЖанна Язынина
1 Половинкин А.Н.
2 Постановка задачи Алгоритм умножения матриц на GPU Программная реализация
3 C = A*B A – прямоугольная матрица число строк – hA число столбцов – wA B – прямоугольная матрица число строк – hB число столбцов - wB
4 A sub B sub
5 Каждый блок потоков занимается вычислением одной подматрицы C sub матрицы С Каждый поток внутри блока потоков занимается вычислением одного элемента подматрицы C sub
6 C sub = A sub * B sub A sub размерности (block_size, wA) B sub размерности (wA, block_size) Матрицы A sub и B sub в общем случае могут не помещаться в общей памяти устройства, что приведёт к потере производительности Решение: разбить A sub и B sub на блоки A sub,i и B sub,i размерности (block_size, block_size), вычислять C sub как сумму произведений этих блоков:
7 for i = 1 to wA/block_size загрузить A sub,i и B sub,i из глобальной (device) памяти в общую (shared) память блока потоков. Каждый поток загружает «свой» элемент! каждый поток вычисляет «свой» элемент в произведении A sub,i *B sub,i и сохраняет аккумулированное значение end каждый поток загружает «свой» вычисленный элемент в глобальную (device) память
8 matrixMul.h – содержит определения (через define) размера блока и размеров матриц matrixMul_gold.cpp computeGold matrixMul.cu main randomInit printDiff runMultiplication matrixMul_kernel.cu matrixMul (kernel)
9 Используется схема хранения матриц по строкам в виде одномерного массива __global__ void matrixMul( float* C, float* A, float* B, int wA, int wB) вычисляем координаты текущего блока потоков и сохраняем их в переменные bx, by int bx = blockIdx.x int by = blockIdx.y вычисляем координаты текущего потока в блоке потоков и сохраняем их в переменные tx, ty
10 вычисляем индекс элемента в массиве, хранящем исходную матрицу A, который соответствует первому элементу первой обрабатываемой подматрицы A sub,1 int aBegin = wA * BLOCK_SIZE * by; вычисляем шаг для перехода к первому элементу следующей обрабатываемой подматрицы int aStep = BLOCK_SIZE; вычисляем индекс (условие останова перебора подматриц A sub,i ) int aEnd = aBegin + wA - 1;
11 вычисляем индекс элемента в массиве, хранящем исходную матрицу B, который соответствует первому элементу первой обрабатываемой подматрицы B sub,1 int bBegin = … вычисляем шаг для перехода к первому элементу следующей обрабатываемой подматрицы int bStep = … объявляем переменную, в которой хранится элемент произведения, вычисляемый текущим потоком float Csub = 0.f;
12 В цикле по всем подматрицам A sub,i, B sub,i выполняем следующие действия for (int a = aBegin, b = bBegin; a
13 каждый поток вычисляет свой элемент Csub в произведении подматриц A sub,i *B sub,i синхронизируем потоки в блоке потоков конец цикла загрузить вычисленный элемент Csub в соответствующий элемент матрицы С (в глобальную память) int c = wB * BLOCK_SIZE * by + BLOCK_SIZE * bx; C[c + wB * ty + tx] = Csub;
14 void runMultiplication(int argc, char** argv) инициализируем устройство (device) CUT_DEVICE_INIT(argc, argv); выделяем память на хосте для хранения матриц A и B unsigned int size_A = WA * HA; unsigned int mem_size_A = sizeof(float) * size_A; float* h_A = (float*)malloc(mem_size_A); unsigned int size_B = WB * HB; unsigned int mem_size_B = sizeof(float) * size_B; float* h_B = (float*)malloc(mem_size_B);
15 инициализируем матрицы A и B случайными значениями randomInit(h_A, size_A); randomInit(h_B, size_B); выделяем память под матрицы A и B на устройстве, копируем данные с хоста на устройство float* d_A; CUDA_SAFE_CALL(cudaMalloc((void**)&d_A, mem_size_A)); float* d_B; CUDA_SAFE_CALL(cudaMalloc((void**)&d_B, mem_size_B)); CUDA_SAFE_CALL(cudaMemcpy(d_A, h_A, mem_size_A, cudaMemcpyHostToDevice) ); CUDA_SAFE_CALL(cudaMemcpy(d_B, h_B, mem_size_B, cudaMemcpyHostToDevice) ); выделяем память под матрицу C на хосте и на устройстве (имена соответствующих переменных h_C, d_C, size_C, mem_size_C)
16 создаем и инициализируем таймер unsigned int timer = 0; CUT_SAFE_CALL(cutCreateTimer(&timer)); CUT_SAFE_CALL(cutStartTimer(timer)); определяем конфигурацию выполнения ядра (размер решетки блоков потоков и блока потоков) dim3 threads(BLOCK_SIZE, BLOCK_SIZE); dim3 grid(WC / threads.x, HC / threads.y); запускаем ядро копируем вычисленную матрицу С с устройства на хост
17 останавливаем таймер, выводим время вычислений, освобождаем ресурсы таймера CUT_SAFE_CALL(cutStopTimer(timer)); printf("Processing time: %f (ms) \n", cutGetTimerValue(timer)); CUT_SAFE_CALL(cutDeleteTimer(timer)); вычисляем то же самое произведение на CPU float* reference = (float*) malloc(mem_size_C); computeGold(reference, h_A, h_B, HA, WA, WB);
18 сравниваем результат, полученный на GPU, с результатом, полученным на CPU (по евклидовой норме) CUTBoolean res = cutCompareL2fe(reference, h_C, size_C, 1e-6f); printf("Test %s \n", (1 == res) ? "PASSED" : "FAILED"); if (res!=1) printDiff(reference, h_C, WC, HC); освобождаем память
19 Nvidia CUDA Programming Guide Многочисленные курсы по CUDA: (на русском языке)
20 ?
Еще похожие презентации в нашем архиве:
© 2024 MyShared Inc.
All rights reserved.