Научная статья на тему 'Оценка производительности связывания CUDA с графическими API на примере задачи saxpy'

Оценка производительности связывания CUDA с графическими API на примере задачи saxpy Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
864
53
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ПРОИЗВОДИТЕЛЬНОСТЬ / ГРАФИЧЕСКИЙ API / CUDA / SAXPY / GPGPU / OPENGL

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Суравикин А. Ю., Коробицын В. В.

В статье исследована CUDA как одна из технологий GPGPU. Создана программа решения задачи SAXPY на CUDA, описаны способы организации взаимодействия с графическими API. Предоставлены листинги базовой программы и функций обмена данных с OpenGL. Приведено сравнение времени расчетов с аналогичными программами, которые используют другие технологии GPGPU.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Суравикин А. Ю., Коробицын В. В.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Оценка производительности связывания CUDA с графическими API на примере задачи saxpy»

УДК 004.925

ОЦЕНКА ПРОИЗВОДИТЕЛЬНОСТИ СВЯЗЫВАНИЯ СИБА С ГРАФИЧЕСКИМИ АР1 НА ПРИМЕРЕ

ЗАДАЧИ БАХРУ

А.Ю. Суравикин, В.В. Коробицын

В статье исследована CUD А как одна из технологий GPGPU. Создана программа решения задачи SAXPY на CUDA, описаны способы организации взаимодействия с графическими API. Предоставлены листинги базовой программы и функций обмена данных с OpenGL. Приведено сравнение времени расчетов с аналогичными программами, которые используют другие технологии GPGPU.

Введение

На сегодняшний день существует множество задач, которые требуют высоких вычислительных затрат и имеют параллельные алгоритмы решения. При этом современные графические процессоры (GPU — Graphics Processing Units) обладают параллельной архитектурой и высокой производительностью, поэтому могут эффективно применяться для решения подобных задач. Однако достигнуть высокой скорости решения задач можно лишь после значительной оптимизации алгоритма под параллельную архитектуру и конкретный GPU. Научное направление по созданию, реализации и оптимизации различных алгоритмов, напрямую не связанных с компьютерной графикой, получило названием GPGPU (General Purpose computations on Graphics Processing Units — вычисления общего назначения на графических процессорах).

Компания NVIDIA предложила свое решение, предназначенное для разработки приложений для массивно-параллельных вычислительных устройств, и назвала его CUDA (Compute Unified Device Architecture — унифицированная архитектура компьютерных вычислений). CUDA ориентирована на графические процессоры NVIDIA GeForce 8-й серии и новее, а также специализированные процессоры NVIDIA Tesla. Технология активно развивается и поддерживается разработчиками ПО. Для CUDA разработаны вспомогательные библиотеки: CUBLAS, CUDA Performance Primitives, thrust. В состав пакета CUDA Toolkit входит компилятор РТХ (Parallel Thread eXecution), позволяющий работать с ассемблерным кодом программ, выполняемым на графическом процессоре.

Copyright © 2010 А.Ю. Суравикин, В.В. Коробицын.

Омский государственный университет им. Ф.М. Достоевского. E-mail: [email protected]

Целью настоящей статьи является описание подхода создания несложной программы на CUDA и способов обмена данными с графическими API, Для этого реализовано решение простейшей задачи линейной алгебры SAXPY (Scalar Alpha X Plus Y) — задачи скалярного умножения и векторного сложения [1]. Она заключается в вычислении результата двух векторных операций: умножения на скаляр и сложения векторов. Необходимо вычислить новое значение вектора у по формуле

у = a ■ x + у,

где a — число, оу - векторы большой размерности,

1. Описание технологии CUD А

Программы для CUDA (соответствующие файлы обычно имеют расширение .си) пишутся на расширении языка С и компилируются при помощи компилятора nvcc, предоставляемого бесплатно компанией NVIDIA через Интернет, Перечислим основные расширения языка С, которые введены в CUDA:

1) спецификаторы функций, показывающих, где будет выполняться функция (host или device) и откуда она может быть вызвана;

2) спецификаторы переменных, задающие тип памяти, используемый для данной переменной;

3) директива, предназначенная для запуска ядра программы на GPU, задающая как данные, так и иерархию потоков выполнения;

4) встроенные переменные, содержащие информацию о выполняемом потоке;

5) библиотека, включающая в себя дополнительные типы данных и функции работы с памятью, управления устройством и другое.

Описание архитектуры CUDA и пример использования можно посмотреть в [2], [3].

Функция решения задачи SAXPY на CUDA входит в библиотеку CUBLAS [4], [5]. Однако мы представляем собственную реализацию для оценки возможностей разработки с использованием инструмента CUDA,

2. Пример программы CUD А

Ниже представлен код программы CUDA, который осуществляет инициализацию и загрузку данных на вычислительное устройство (device). Такой код выполняется в модуле, компилируемом программой nvcc, однако некоторыми функциями CUDA можно воспользоваться и в модуле C++ с подключенными заголовочными файлами и библиотеками CUDA,

cudaSetDevice(cutGetMaxGflopsDeviceld());

// параметры данных

vectorSize = n;

dataSize = n * sizeof(float);

// выделим память для векторов на стороне GPU cudaMallocC&vectorX, dataSize); cudaMallocC&vectorY, dataSize);

// ... и на CPU

cudaMallocHost(&vectorXHost, dataSize); cudaMallocHostC&resultHost, dataSize);

// инициализация входных данных:

// заполним массив памяти CPU (Host) псеводслучайными числами

// в интервале [0; 1]

srand(timeGetT ime());

for (int i = 0; i < vectorSize; i++)

vectorXHost[i] = (float)rand() / RAND_MAX;

>

// скопируем данные массива в вектор X на GPU (Device) cudaMemcpy(vectorX, vectorXHost, dataSize, cudaMemcpyHostToDevice);

// вектор Y обнулим cudaMemset(vectorY, 0, dataSize);

Далее представлена функция обработки данных, в которой устанавливаются размеры блока выполнения ядер (kernel) [7]), запускается ядро и копируется результат вычислений в память CPU.

void ProcessData(int iterations)

// размер блока - некоторая константа dim3 block(blockSize);

// количество блоков зависит от общего числа данных dim3 grid(vectorSize / block.х);

// производим несколько итераций запуска ядра for (int i = 0; i < iterations; i++)

// передаем параметр \alpha и указатели на векторы X и Y kernel_SAXPY«<grid, block>»(0.5f, vectorX, vectorY) ;

>

// копируем обработанные данные в host-память

cudaMemcpy(resultHost, vectorY, dataSize, cudaMemcpyDeviceToHost);

>

Обратим внимание на размеры блоков выполнения. Их значения необходимо подбирать для каждого ядра таким образом, чтобы максимально загрузить

устройство (графический процессор). Для этого оцениваем число занимаемых ядром регистров. Чем меньше регистров используется в ядре, тем больше блоков можно запустить одновременно. Теперь рассмотрим программу-ядро, выполняемую на GPU:

__global__ void kernel_SAXPY(float alpha, float* X, float* Y)

uint addr = ___umul24(blockIdx.x, blockDim.x) + threadldx.x;

Y [addr] = alpha * X[addr] + Y[addr];

>

В приведенном листинге ключевое слово____global__определяет функцию

как ядро, В самой функции сначала рассчитываем адрес обрабатываемого элемента, исходя из номера потока, номера и размера блока. Для целочисленного умножения небольших чисел используется функция______umul24(), которая

выполняется значительно быстрее, чем полноценное умножение 32-битных чисел, Далее совершаются собственно операции SAXPY: каждый поток вычисляет один элемент вектора, происходит чтение из элементов векторов X, Y и запись результата в элемент вектора Y,

После обработки и копирования данных в память CPU их можно вывести любым способом, доступным для языка C++, Удаление указателей в памяти устройства осуществляется функцией cudaFreeQ, в памяти хоста — функцией cudaFreeHostQ,

3. Взаимодействие CUD А с графическими API

Во многих случаях результаты расчетов требуется вывести в графическом виде. Для этого используются специальные функции взаимодействия с графическим API.

3.1. Взаимодействие с OpenGL

В CUDA версии 2.3 взаимодействие с OpenGL ограничено обменом данных с OpenGL Buffer Objects, т.е. с объектами-буферами [7]). Рассмотрим процесс обмена данных между памятью CUDA и буферами OpenGL.

Для работы с OpenGL требуется, чтобы устройство CUDA было указано функцией cudaGLSetGLDeviceQ перед всеми вызовами функций CUDA. Прежде чем проецировать буфер для CUDA, необходимо его зарегистрировать следующей функцией:

GLuint bufferObj;

cudaGLRegisterBufferObject(bufferObj);

Когда буфер зарегистрирован, ядро может считывать из него данные или записывать в него. Для обращения необходимо использовать адрес, возвращаемый функцией cudaGLMapBufferObjectQ.

GLuint bufferObj; float* vectorYPtr;

cudaGLMapBufferObject((void**)&vectorYPtr, bufferObj);

Например, можно выполнить следующий код:

kernel_SAXPY<«grid, block>»(0.5f, vectorX, vectorYPtr);

После выполнения функции ядра в буфере bufferObj будет содержаться вектор Y, который можно использовать для рендеринга, например в качестве координат точек, трансформируемых далее в вершинном шейдере.

Отключение проекции и регистрации осуществляется при помощи функций cudaGLUnmapBufferObjeetQH cudaGLUnregisterBufferObjeetQ, При обработке изображений или других двумерных массивов данных имеет смысл передавать не вершинную информацию, а пиксельную. Для этого используется объект Pixel Buffer Object (РВО), который создается следующим образом:

glGenBuffers(l, fepbold);

glBindBuffer(GL_PIXEL_UNPACK_BUFFER, pbold);

glBufferData(GL_PIXEL_OTPACK_BUFFER, dataSize, 0, GL_DYNAMIC_DRAW); glBindBuffer(GL_PIXEL_UNPACK_BUFFER, 0);

Здесь pbold - идентификатор буфера-РВО, dataSize - его размер, От создания вершинного буфера он отличается константой GL_PIXEL_UNPACK_BUFFER, обозначающей чтение (распаковку — unpack) командами вида, glDrawPixels и glTexImage2D пиксельных данных из буфера, О расширении библиотеки OpenGL ARB_pixel_buffer_object подробнее изложено в [8]. О буферах РВО как части стандарта OpenGL 3,2 в [9]. Буфер pbold один раз регистрируется в CUD А, затем каждый кадр отрисовки проецируется для запуска ядра, далее ядро выполняет расчеты, после чего проекция закрывается. Для рендера полученного изображения копируем данные из РВО в текстуру texld. Следующий код иллюстрирует процесс копирования:

glBindBuffer(GL_PIXEL_UNPACK_BUFFER, pbold); glBindTexture(GL_TEXTURE_2D, texld);

glTexSubImage2D(GL_TEXTURE_2D, 0, 0, 0, width, height, GL_RGBA, GL_FL0AT, 0); glBindBuffer(GL_PIXEL_UNPACK_BUFFER, 0);

Теперь текстуру texld можно наложить на прямоугольник и произвести ее рендер любым подходящим способом. Отметим также, что в бета-версии CUDA 3,0 стало доступным взаимодействие с текстурами OpenGL напрямую,

3.2. Взаимодействие с Direct3D

Взаимодействие CUDA с Direet3D описано в [7]. Приведем лишь основные моменты реализации.

Прежде чем использовать вызовы библиотеки, необходимо передать устройство Direct3D 9 в функцию cudaD3D9SetDirect3DDevice() (для Direct3D 10, соответственно, cudaD3D10SetDirect3DDevice()). Ресурсы Direct3D 9 (вершинные буферы IDirect3DVertexBuffer9, поверхности IDirect3DSurface9 и т.д.) и Direct3D 10 (буферы ID3D10Buffer, и текстуры ID3D10Texture2D и т.д.) ассоциируются функциями cudaD3D9RegisterResource(), cudaD3D10RegisterResource(). Для работы с ресурсами нужно спроецировать их намять. Проекция массива ресурсов открывается функцией cudaD3D9MapResources() и закрывается функцией cudaD3D9UnmapResources().

В бета-версии CUDA 3,0 добавлена возможность взаимодействия с Direct3D версии 11,

4. Компьютерный эксперимент

Дня оценки производительности реализации па CUDA был проведен компьютерный эксперимент. Определялось время выполнения задачи SAXPY па CUDA и других технологиях GPGPU: DirectCompute и OpenGL, Измерения производились следующим образом: сначала подготавливаются все данные дня ядра, затем запускается таймер, после чего выполняется функция-ядро. Далее выполняется синхронизация с CPU любым доступным способом, и таймером замеряется результат. Конфигурация тестовой системы: процессор - Core 2 Duo 2,26 ГГц, оперативная намять объемом 4ГБ, видеокарта па основе видеопроцессора GeForce 9800М GTS с 1ГБ видеопамяти.

Рис. 1. Сравнение времени вычисления SAXPY на различных АРІ

Графики на рисунке 1 показывают время выполнения операции SAXPY различными АРІ на векторах размером от 512 до 262144 элементов. Видно, что CUDA демонстрирует самую высокую скорость выполнения. OpenGL и DirectCompute отстают но скорости. Возможно, это связано с лишними затратами времени па установку состояния АРІ и синхронизацию с GPU при занус-

ко каждой итерации расчета. Вызовы функций OpenCL и DirectCompute осуществляются через CUDA, поэтому па выполнение требуется дополнительное время.

Взаимодействие CUDA с OpenGL и DirectX

Время, с

100 1000 10000 100000 1000000 Размер вектора

Рис. 2. Время расчета SAXPY на CUDA и вывода результатов с помощью графических API

Второй эксперимент заключался в расчете SAXPY и выводе результатов па экран с помощью средств графических API, т.е. в данном случае проводилось сравнение производительности работы CUDA с OpenGL 3,0 и DirectX 11, Обмен данными производился с помощью копирования данных из буфера, Г рафик па рисунке 2 показывает, что при малых объемах данных OpenGL работает быстрее, по при увеличении размера вектора различия становятся минимальными,

5. Выводы

С использованием технологии CUDA было реализовано решение задачи линейной алгебры SAXPY, Также получена программа, которая пересылает исходные данные па GPU, обрабатывает их и возвращает результат. После этого рассмотрено взаимодействие CUDA с графическими API. В случае OpenGL был описан способ обмена данными через Pixel Buffer Object. Дня проведения экспериментов также были реализованы программы расчета SAXPY па CUD А, OpenCL, DirectCompute и вывод результатов в графическом виде с использованием OpenGL 3.0 и DirectX 11. Мы не ставили своей задачей освоить работу с разделяемой памятью, хотя оптимизация вычислений иод разделяемую, локальную, константную намять позволяет значительно повысить производительность приложений CUDA, Это является серьезным преимуществом но сравнению с использованием графического API, так как позволяет оптимизировать программу иод конкретную архитектуру оборудования.

Сравнение времени выполнения реализаций алгоритма на CUDA, OpenCL и DirectCompute показало, что взаимодействие с дополнительными API (т.е.

выполнение функций OpenCL и DireetCompute через CUDA) добавляет значительные задержки, особенно при большом числе итераций и незначительной вычислительной нагрузке. Следовательно, для ядер с большими вычислительными затратами API не будет иметь значения, а для большого количества ядер с меньшим временем выполнения CUDA будет выполняться быстрее. Эксперимент с выводом результатов вычислений из CUDA на экран с помощью графических API показал, что производительность одинакова при использовании как OpenGL, так и DirectX,

Литература

1. Описание алгебраической функции SAXPY // Википедия. URL: http://en.wikipedia.org/wiki/SAXPY (дата обращения: 28.02.2010).

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

2. Боресков А. Основы CUDA. URL: http://steps3d.narod.ru/tutorials/cuda-

tutorial.html (дата обращения: 28.02.2010).

3. Zibula A. General Purpose Computation on Graphics Processing Units (GPGPU) using CUDA // Parallel Programming and Parallel Algorithms Seminar. Munster: Westfalische Wilhelms-Universität, 2009.

4. Библиотека CUBLAS для CUDA. URL: http://developer.download.nvidia.com/ compute/cuda/2_ З/toolkit/ docs/CUBLAS_Librarv_2.3.pdf (дата обращения: 28.02.2010).

5. Страницы загрузок средств разработки CUDA 2.3. URL: http://developer.nvidia.com/object/cuda_2_3_downloads.html (дата обращения: 28.02.2010).

6. CUDA 3.0 beta. URL: http://forums.nvidia.com/index.php?showtopic= 149959 (дата обращения: 28.02.2010).

7. NVIDIA CUDA Programming Guide. URL: http://developer.download.nvidia.com/ compute/cuda/2_ З/toolkit/docs/ NVIDIA_CUDA_Programming_Guide_2.3.pdf (дата обращения: 28.02.2010).

8. Спецификация расширения OpenGL ARB_pixel_buffer_object. URL: http://www.opengl.org/registrv/specs/ARB/pixel_buffer_object.txt (дата обращения: 28.02.2010).

9. Спецификация OpenGL 3.2. URL: http://www.opengl.org/registrv/doc/

glspec32.core.20091207.pdf (дата обращения: 28.02.2010).

i Надоели баннеры? Вы всегда можете отключить рекламу.