Серия История. Политология. Экономика. Информатика. 2014 № 1 (172). Выпуск 29/1
УДК 680.3
ИССЛЕДОВАНИЕ ПОКАЗАТЕЛЕЙ ЭФФЕКТИВНОСТИ АЛГОРИТМА ГАУССА НА ВЫЧИСЛИТЕЛЬНОМ КЛАСТЕРЕ
Г. А. ПОЛЯКОВ1, К.В.ЛЫСЫХ1 Е. Г. ТОЛСТОЛУЖСКАЯ2
1 Белгородский государственный национальный исследовательский университет
2) Харьковский национальный университет имени В. Н. Каразина
e-mail:
В статье описаны этапы и представлены результаты исследования показателей эффективности алгоритма Гаусса на кластере НИУ «БелГУ».
Ключевые слова: MPI, алгоритм Гаусса, кластерные вычислительные системы (ВС).
Введение
Центральной проблемой вычислительной техники является повышение эффективности параллельного программного обеспечения суперЭВМ и Кластеров [1-3]. Проблема включает:
а) выбор и оценку показателей эффективности параллельного выполнения задач;
б) моделирование параллельного выполнения задач кластерами и оценку их показателей эффективности с учетом особенностей задач и конкретных требований/ограничений;
в) выработку рекомендаций по выбору конкретных конфигураций кластера,
ориентированных на конкретные задачи и требования/ограничения и
совершенствованию систем параллельного программирования, направленных на повышение эффективности параллельных программ.
Постановка задачи
Исходная информация:
- математическая модель и Си - программа задачи - алгоритма Гаусса;
- параллельная ВС - Кластер НИУ «БелГУ»: для исследования использовались 4 вычислительных узла (ВУ). В одном вычислительном узле содержатся 2 процессора Intel Xeon E5-2665 с тактовой частотой 2,4 ГГц, 8 ядер в каждом процессоре, 64 ГБ оперативной памяти DDR3-1600. Топология коммутационной среды - полный граф. Скорость передачи данных между узлами организована по технологии Infiniband и составляет 10 Гбит/с;
- состав поддерживаемых при оценке эффективности факторов: число
процессоров NM, значения t0 (typ) длительностей выполнения различных типов «typ»
операций в; время обмена одним сообщением t0 ; фактическая топология
коммутационной среды;
- состав показателей эффективности и поддерживаемых требований и ограничений.
Требуется получить для алгоритма Гаусса оценки зависимостей показателей эффективности параллельного решения задачи для различных значений характеристик конфигурации кластера и различных размеров матрицы системы линейных уравнений.
Математическая модель алгоритма Гаусса.
Система n линейных алгебраических уравнений:
НАУЧНЫЕ ВЕДОМОСТИ Серия История. Политология. Экономика. Информатика. Ю1
2014. №1 (172). Выпуск 29/1
аихх + аих2 +... + а1пхп = ах п+1
а2\х\ + а22Х2 + ... + а2пХп = а2 п+1
ап1Х1 + ап2 Х2 + - + аппХп = апп+1
Решение системы уравнений по компактной схеме заключается в
х ,х ,,...,х
последовательном определении и’ п—15 ’ 1 из системы уравнений:
Х1 + С12 Х2 + .... + С1пХп = С1 п+1 Х2 + .... + С2пХп = С2 п+1
Эта система получается как результат разложения исходной матрицы на треугольные матрицы в соответствии со следующими формулами:
] “1
Ъ=а, -£ ьк ■ ск], ^ ;'<п>
к=1
Ґ -1 \ /
/Ь, , 1</<п, 1</<п+1, і<.
аи -Л Ьк • СЪ
V к=1 Л
В результате вычислений получается матрица:
Л11С12С13-С1пС1 п+1 Ь21Ь22С23-”С2пС2 п+1
Ь Ь Ь _...Ь с ^ ■
п1 п2 п3 пп п п+1
Собственно вычисление значений хи / = п, п-1,...,1, выполняется по формуле
п—1
Х1 = С1 п+1 — ^ С1,п—к+1 ' Хп—к+1 к=1
Используемые показатели эффективности
Математическое ожидание времени реализации множества Р операторов произвольного алгоритма определяется выражением (1) [5,6]
Т(Р) = ^Р(Т( , (с), (1)
(=1
где ш - число ветвей в алгоритме, р^ - вероятность реализации (-й ветви; Т - время реализации ( -й ветви параллельного алгоритма, определяемое по формуле
Т( = тах (1 + г), (с),
( р,^р (() ] ]
Серия История. Политология. Экономика. Информатика.
2014 № 1 (172). Выпуск 29/1
где Р(£) - множество операторов £ -й ветви, tH и t. - момент начала и относительная
временная глубина оператора р е Р(£) • Уменьшение временных затрат («»ускорение»)
за счет параллельного решения задачи определяется выражением (2)
РТ = Тпос(Р) (раз). (2)
T (Р)
пар V '
В соотношении (2) Тпос(Р) и Тпар(Р) - среднее время соответственно последовательной и параллельной реализации задачи. Значение показателя эффективности распараллеливания рассчитывается на основе соотношения (3)
R(P) = Kt . DT(NM) + Ks * S(NM). (раз) (3)
NM
В соотношении (3) Kt и Ks являются весовыми коэффициентами, определяющими «пользовательскую» важность учета в эффективности распараллеливания величины сокращения времени реализации алгоритма (Kt < 1 ) и степени загрузки оборудования параллельным алгоритмом (Ks < 1 ).
Этапы и результаты исследования
Основными этапами исследования показателей эффективности параллельного решения задачи являлись:
a) выбор программистом «поддерживающей задачу» конкретной конфигурации кластера;
b) разработка текста параллельной MPI - программы исследуемой задачи;
c) прогон параллельной MPI - программы на «поддерживающей» конфигурации
d) кластера и оценка значений показателей эффективности;
e) оценка дифференциала требуемых и фактических значений показателей эффективности; стоп - при выполнении требований, иначе -переход к п.е; формальная спецификация MPI - программы с использованием структур
f) семантико - числовой спецификации (СЧС) [5,6];
g) синтез времяпараметризованной параллельной СЧС модели процесса, минимизирующей разности дифференциалов требуемых и фактических значений показателей эффективности [5,6];
h) определение из СЧС модели процесса состава и величин коррекции «поддерживающей задачу» конкретной конфигурации кластера; переход к п. b.
Результаты исследования зависимостей времени параллельной реализации алгоритма Гаусса от количества процессов и размеров матрицы системы уравнений представлены в табл. 1, табл. 2 и на рис. 2 и рис. 3.
Таблица 1
Время выполнения (сек.)______________________________
Размер матрицы Последова тельный Параллельн ый (np=2) Параллельн ый (np=4) Параллельн ый (np=8) Параллельны й (np=16) Параллельн ый (np=32)
2048x2048 13,86 7,33 3,56 1,95 1,85 1,38
4096x4096 112,38 56,08 28,8 15,45 13,6 7,74
8192x8192 885,81 445,5 227,21 121,38 106,8 55.1
16384x16384 7756,05 3522,51 1807,88 948,91 518,93 432,63
Таблица 2
Ускорение (разы)____________________________________
Размер матрицы Последова тельный Параллельн ый (np=2) Параллельн ый (np=4) Параллельн ый (np=8) Параллельны й (np=16) Параллельн ый (np=32)
2048x2048 - 1,89 3,89 7,10 7,49 10,04
4096x4096 - 2,003 3,9 7,27 8,26 14,51
8192x8192 - 1,98 3,89 7,29 8,29 16,08
16384x16384 - 2,201 4,29 8,17 14,95 17,92
102
НАУЧНЫЕ ВЕДОМОСТИ
Серия История. Политология. Экономика. Информатика. 2014. №1 (172). Выпуск 29/1
Рис.2. Зависимости времени решения задачи (сек.) от размер матрицы и количества используемых процессов
Рис.3. Гистограмма временных затрат (сек.) на выполнение алгоритма Гаусса при варьировании размеров матрицы и количества процессов
Выводы
1. В настоящее время проблема разработки эффективного параллельного программного обеспечения для известных и будущих суперЭВМ стала центральной проблемой параллельной компьютерной техники.
2. Система MPI не содержит в своем составе средств разработки параллельных программ, обеспечивающих поддержку создания параллельных программ, удовлетворяющих требованиям пользователей к времени выполнения.
3. Предложенный аналитически - имитационный подход основан на сочетании методов формальной семантико - числовой спецификации и автоматического синтеза времяпараметризованных (временных) моделей процессов и использовании средств MPI для текстовой спецификации и кластерной реализации MPI-программ. Подход
Серия История. Политология. Экономика. Информатика. 2014 № 1 (172). Выпуск 29/1
поддерживает расширение состава учитываемых факторов эффективности, поддержку требований и ограничений пользователей, формализацию и автоматизацию трудоемких этапов синтеза временных моделей процессов и обеспечивает возможность разработки в сжатые сроки высокоэффективных параллельных программ.
1. Воеводин В.В., Воеводин Вл. В. Параллельные вычисления. - СПб.: БХВ-Петербург, 2002. - 608 с.
2. Немнюгин СА. Параллельное программирование для многопроцессорных вычислительных систем. / С.А. Немнюгин, О.Л. Стесик. . - СПб.: БХВ-Петербург, 2002. - 400 с.
3. Корнеев В.В. Параллельное программирование в MPI М. - Ижевск: Институт компьютерных исследований, 2003
4. Гергель В.П. Теория и практика параллельных вычислений БИНОМ. Лаборатория знаний, Интернет-университет информационных технологий - ИНТУИТ.ру, 2007
5. Поляков Г.А. Технология проектирования времяпараметризованных мультипараллельных
программ как стратегия развития систем параллельного проектирования. / Г.О. Поляков, Е.Г. Толстолужская. // Радіоелектронні і комп’ютерні системи - Х.: Національний аерокосмічний університет
ім. М.Є. Жуковського «Харківський авіаційний інститут», 2009. - Вип. 6(40). - С. 166-171.
6. Поляков Г.А. Синтез и анализ параллельных процессов в адаптивных времяпараметризованных вычислительных системах /Г.А.Поляков, С.И. Шматков, Е.Г. Толстолужская, Д.А. Толстолужский: монография. - Х.: ХНУ имени В.Н. Каразина, 2012. - 672 с.
7.Лысых К.В., Поляков Г.А. «Разработка фрагментированной временной параллельной модели
алгоритма гаусса на основе формальных полиномов и структур семантико-числовой спецификации»// Научные ведомости БелГУ: история, политология, экономика, информатика - Б.: Белгородский
государственный университет, 2012 г. № 19(138) 2012 - Вып. 24/1 - C. 133-136.
RESEARCH OF THE GAUSSIAN ALGORITHM PERFORMANCE INDICATORS ON A COMPUTING CLUSTER
Research University, Belgorod
2) Kharkov National University nm. Karazin, Kharkov
e-mail:
Список литературы
G.A. POLYAKOV1 K.V. LYSYKH1 E.G. mSTOLUZKA2
The paper presents the steps and results of the Gaussian algorithm performance indicators research on a cluster of Belgorod State National Research University
Keywords: MPI, Gaussian algorithm, cluster computing
1) Belgorod State National
systems.