Научная статья на тему 'Применение параллельных алгоритмов при численном моделировании кровотока в квазиодномерном приближении'

Применение параллельных алгоритмов при численном моделировании кровотока в квазиодномерном приближении Текст научной статьи по специальности «Математика»

CC BY
107
15
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ТЕХНОЛОГИЯ OPENMP / OPENMP TECHNOLOGY / MPI / КВАЗИОДНОМЕРНАЯ МОДЕЛЬ / QUASI-ONE DIMENSIONAL MODEL / КРОВОТОК / BLOOD FLOW / МЕТОД ДЕКОМПОЗИЦИИ ОБЛАСТИ / МЕТОД MUSCL / DOMAIN DECOMPOSITION METHOD / ПАРАЛЛЕЛЬНЫЙ АЛГОРИТМ / PARALLEL ALGORITHM / КЛАСТЕР / CLUSTER / РАСЩЕПЛЕНИЕ ГОДУНОВА / GODUNOV SPLITTING / MUSCL SCHEME

Аннотация научной статьи по математике, автор научной работы — Авдеева А. Н., Пузикова В. В.

Главной целью современного гемодинамического моделирования является предсказание поведения давления крови в артериях, а также изучение комплексного воздействия разнообразных факторов на характеристики сердечно-сосудистой системы. Наиболее популярными при этом являются квазиодномерные модели течения крови по сосудам, позволяющие моделировать кровоток во всей сосудистой системе. Поскольку полномасштабное моделирование сердечно-сосудистой системы требует больших вычислительных затрат, актуальной является задача распараллеливания вычислений. В данной работе проведено исследование эффективности распараллеливания вычислений при численном моделировании кровотока в квазиодномерном приближении. Для простоты рассмотрена задача о моделировании течения крови в отдельном кровеносном сосуде. При построении параллельного алгоритма был применен метод декомпозиции области. В каждой подобласти задача на каждом шаге по времени расщепляется на гиперболическую и параболическую подзадачи. Для решения гиперболической подзадачи используется интегро-интерполяционный метод, основанный на схеме MUSCL. Для интегрирования по времени применяются методы Рунге-Кутты и Адамса-Башфорта второго порядка. Для решения параболической подзадачи используется метод Кранка-Николсона. На стыках подобластей интерфейсные условия образуют нелинейные системы с тремя неизвестными. Эти системы решаются при помощи метода Ньютона. С помощью профилировщика AMD CodeAnalyst была определена структура временных затрат при решении тестовой задачи в последовательном режиме. При помощи закона Амдала получены оценки максимально возможного ускорения при распараллеливании наиболее дорогостоящих с вычислительной точки зрения операций. При реализации полученного алгоритма в разработанном авторами настоящей работы программном комплексе использовались технология OpenMP и библиотека MPI. Расчеты проводились на учебно-вычислительном кластере кафедры ФН-2 «Прикладная математика» МГТУ им. Н.Э. Баумана. Результаты вычислительных экспериментов показали, что выигрыш по времени, достигаемый за счет использования библиотеки MPI, не превышает нескольких процентов по сравнению с применением технологии OpenMP. В связи с этим, принимая во внимания простоту распараллеливания алгоритмов посредством OpenMP, можно остановить выбор на данной технологии, однако использование MPI позволяет сделать программный комплекс универсальным -работающим как на системах с общей памятью, так и на системах с распределенной памятью.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Авдеева А. Н., Пузикова В. В.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Application of parallel algorithms for numerical simulation of quasi-one dimensional blood flow

The main goal of modern hemodynamic simulation is the prediction of blood pressure in the arteries, as well as the study of the various factors complex effect on the cardiovascular system characteristics. Quasi-one dimensional models of blood flow through blood vessels are the most popular. They allow to model the blood flow in the entire vascular system. Since full-scale simulation of the cardiovascular system requires large computational costs, the problem of parallelizing computation is actual. In this paper, the efficiency study was carried out for parallel algorithms in the numerical simulation of blood flow in the quasi-one-dimensional approximation. For simplicity, we consider the problem of the blood flow simulation in a separate blood vessel. When constructing a parallel algorithm, the domain decomposition method was applied. In each subdomain, the problem at each time step splits into a hyperbolic and parabolic subproblems. To solve the hyperbolic subtask, an integro-interpolation method based on the MUSCL scheme is used. To integrate over time, the second order Runge-Kutta and Adams-Bashfort methods are applied. The Crank-Nicholson method is used to solve the parabolic subproblem. At the subdomains conjunctions, the interface conditions are non-linear systems with three unknowns. These systems are solved using the Newton method. The time-cost structure was obtained for solving the test problem in a serial mode using the AMD CodeAnalyst profiler. Computations were carried out at the cluster of the BMSTU "Applied Mathematics" FN-2 department. The computational results showed that the time gain achieved by using the MPI library does not exceed a few percent in comparison with the OpenMP technology usage. Taking into account the simplicity of parallelizing algorithms through OpenMP, we can choose this technology, but MPI usage allows to make the software package universal (it can work both on shared memory systems and on distributed memory systems).

Текст научной работы на тему «Применение параллельных алгоритмов при численном моделировании кровотока в квазиодномерном приближении»

Применение параллельных алгоритмов при численном моделировании кровотока в квазиодномерном приближении

А.Н. Авдеева <[email protected]> В.В. Пузикова <[email protected]> Федеральное государственное бюджетное образовательное учреждение высшего образования «Московский государственный технический университет имени Н. Э. Баумана (национальный исследовательский университет)» (МГТУ им. Н.Э. Баумана), 105005, Россия, г. Москва, ул. 2-я Бауманская, дом 5, стр. 1

Аннотация. Главной целью современного гемодинамического моделирования является предсказание поведения давления крови в артериях, а также изучение комплексного воздействия разнообразных факторов на характеристики сердечнососудистой системы. Наиболее популярными при этом являются квазиодномерные модели течения крови по сосудам, позволяющие моделировать кровоток во всей сосудистой системе. Поскольку полномасштабное моделирование сердечнососудистой системы требует больших вычислительных затрат, актуальной является задача распараллеливания вычислений. В данной работе проведено исследование эффективности распараллеливания вычислений при численном моделировании кровотока в квазиодномерном приближении. Для простоты рассмотрена задача о моделировании течения крови в отдельном кровеносном сосуде. При построении параллельного алгоритма был применен метод декомпозиции области. В каждой подобласти задача на каждом шаге по времени расщепляется на гиперболическую и параболическую подзадачи. Для решения гиперболической подзадачи используется интегро-интерполяционный метод, основанный на схеме MUSCL. Для интегрирования по времени применяются методы Рунге-Кутты и Адамса-Башфорта второго порядка. Для решения параболической подзадачи используется метод Кранка-Николсона. На стыках подобластей интерфейсные условия образуют нелинейные системы с тремя неизвестными. Эти системы решаются при помощи метода Ньютона. С помощью профилировщика AMD CodeAnalyst была определена структура временных затрат при решении тестовой задачи в последовательном режиме. При помощи закона Амдала получены оценки максимально возможного ускорения при распараллеливании наиболее дорогостоящих с вычислительной точки зрения операций. При реализации полученного алгоритма в разработанном авторами настоящей работы программном комплексе использовались технология OpenMP и библиотека MPI. Расчеты проводились на учебно-вычислительном кластере кафедры ФН-2 «Прикладная математика» МГТУ им. Н.Э. Баумана. Результаты вычислительных экспериментов показали, что выигрыш по времени, достигаемый за счет использования библиотеки

MPI, не превышает нескольких процентов по сравнению с применением технологии OpenMP. В связи с этим, принимая во внимания простоту распараллеливания алгоритмов посредством OpenMP, можно остановить выбор на данной технологии, однако использование MPI позволяет сделать программный комплекс универсальным -работающим как на системах с общей памятью, так и на системах с распределенной памятью.

Ключевые слова: технология OpenMP; MPI; квазиодномерная модель; кровоток; метод декомпозиции области; параллельный алгоритм; кластер; метод MUSCL; расщепление Годунова.

DOI: 10.15514/ISPRAS-2018-30(2)-15

Для цитирования: Авдеева А.Н., Пузикова В.В. Применение параллельных алгоритмов при численном моделировании кровотока в квазиодномерном приближении. Труды ИСП РАН, том 30, вып. 2, 2018 г., стр. 301-316. DOI: 10.15514/ISPRAS-2018-30(2)-15

1. Введение

В последние годы главной причиной смертности в мире являются сердечнососудистые заболевания. В настоящее время значительно увеличивается количество стентирований кровеносных сосудов и ангиопластик, причем в проекте государственной программы по развитию здравоохранения планируется дальнейшее усиление мер по оказанию специализированной медицинской помощи больным с острой сосудистой патологией. Нередко для восстановления кровообращения в пораженных сосудах помимо медикаментозного лечения проводятся дорогостоящие реконструктивные операции, и зачастую невозможно объективно оценить, какой тип оперативного вмешательства будет оптимальным для конкретного пациента, а также, насколько близок будет кровоток в сосуде к нормальному после операции. Таким образом, очень важной задачей представляется не только усовершенствование методов ранней диагностики сердечно-сосудистых заболеваний, но и разработка методов, позволяющих смоделировать для конкретного пациента последствия проведения той или иной реконструктивной кардиохирургической операции.

Эффективным методом решения данной проблемы является использование вычислительного эксперимента: в виртуальной системе кровообращения можно реализовать различные сценарии операции для конкретного пациента, спрогнозировать исход той или иной тактики лечения и выбрать оптимальную [1, 2]. Использование относительно недорогих средств математического моделирования может обеспечить значительный прогресс в разработке и оптимизации формы искусственных клапанов сердца, шунтов, имплантируемых насосов крови, способов управления ими, и, самое главное, позволит исследовать их влияние на гемодинамику и спрогнозировать успешность применения данного метода терапии для конкретного пациента в дооперационный период. Прогностическую ценность и клинический

потенциал персонализированного моделирования сердечно-сосудистой системы для ряда клинически значимых параметров доказал международный исследовательский проект «euHeart» [3], который возглавляла компания Royal Philips Electronics.

Главной целью современного гемодинамического моделирования является предсказание поведения давления крови в артериях, а также изучение комплексного воздействия разнообразных факторов на характеристики сердечно-сосудистой системы. Наиболее популярными при этом являются квазиодномерные модели течения крови по сосудам [4-8], позволяющие моделировать кровоток во всей сосудистой системе. Параметры отдельных сосудов (длины сосудов, скорости распространения пульсовых волн и т.д.) берут из результатов медицинских исследований, например, цветового дуплексного сканирования артерий.

Поскольку полномасштабное моделирование сердечно-сосудистой системы требует больших вычислительных затрат, актуальной является задача распараллеливания вычислений. Вопросам разработки параллельных алгоритмов решения разнообразных задач вычислительной механики и анализу их эффективности посвящено большое число исследований [9-15]. При этом расматриваются вопросы проведения расчетов как на вычислительных системах кластерного типа при помощи библиотеки параллельных вычислений MPI [16, 17], так и на системах с общей памятью при помощи таких технологий параллельного программирования, как Intel® Cilk™ Plus [18], Intel® TBB [19], OpenMP [20].

Целью данной работы является изучение возможности эффективного распараллеливания вычислений при численном моделировании кровотока в квазиодномерном приближении. Для простоты рассматривается задача о моделировании течения крови в отдельном кровеносном сосуде. При построении параллельного алгоритма применяется метод декомпозиции области [21]. При реализации полученного алгоритма в разработанном авторами настоящей работы программном комплексе используются технология OpenMP и библиотека MPI.

2. Квазиодномерная модель кровотока в отдельном сосуде

Для простоты рассмотрим один участок эластичного кровеносного сосуда (рис. 1) в цилиндрической системе координат (г,в,x). Внутренний радиус сосуда R зависит от координаты x и времени t. Кровь полагается однородной и несжимаемой (плотность р = const ) ньютоновской жидкостью (вязкость v = const). Течение характеризуется скоростью р = (vr,,vx) и давлением P . Отметим, что P - это внутреннее давление, т.е.

Р = Р Л- р

1 1 ext ^1 art ■

Здесь Pext - внешнее давление, т.е. атмосферное давление, а Part -трансмуральное давление, которое в медицине принято называть артериальным давлением [1, 2]. Предполагаем, что Pext постоянно вдоль осевой переменной x. Считается, что силой тяжести можно пренебречь [7, 8]. Сосуд и течение крови полагаются осесимметричными, поэтому vq =0 и ни одна из переменных не зависит от Q. Полагаем, что течение описывается уравнением неразрывности и уравнением Навье-Стокса [7, 8]. Эти уравнения дополняются граничным условием прилипания

Vx (R) = 0.

Кроме того, предполагаем, что стенка сосуда движется только вдоль r, т.е.

SR

dt

Из этого уравнения следует, что давление постоянно вдоль радиуса.

vr (R, x, t) = —.

Рис. 1. Расчетная область Fig. 1. Computational domain

Перепишем уравнение неразрывности в интегральном виде:

дА+дV = о. (1)

д дх

Здесь 2 -расход потока, А -площадь поперечного сечения:

я

2 = 11т>хгёг, А = лЯ 2. 0

Для описания вязкоупругого поведения стенки сосуда используем модель Кельвина - Фойгта. Тогда внутреннее давление можно вычислять следующим образом [7]:

р = Рх +Р(4А-ТА0)дА. (2)

Здесь р - коэффициентом жесткости и у5 - коэффициент вязкости. В работе [7] показано, что при малых возмущений можно полагать, что

A-д-L ^с,

р дх V дх

д 2 Q

дх2 '

Здесь Су = ■

Av„

Р

-. Тогда уравнение Навье-Стокса в интегральном виде c

учетом (2) можно переписать следующим образом:

5Q+ д_

dt дх

( QQL + АА 3/2 A 3р

~ д2Q „ Q A

v .2 Cf

д(Ру[л0)

дх 3 дх

. (3)

дх2 J A р

^ / v /

Здесь Cf = 22nv [7]. Уравнения (1), (3) можно записать следующим образом:

ди 3F „

(4)

- + — = S.

дt дх

Здесь U - консервативная переменная, F - соответствующий поток, S -источник:

r Q Л ( о ^

и =

( A Л Q

F = F + F =

л С V

Q2 + А A3/2

A 3р

-с Q

V дх

(

S =

- с А+A

f A р

(

0 ^

д(ёДО)

дх 3 дх

/ /

Заметим, что поток состоит из двух частей, конвективной Ес и диффузионной . В общем случае, при работе с конвективными и диффузионным потоками применяются разные численные методы. Поэтому диффузионные слагаемые часто отделяют и переносят в правую часть. Таким образом, мы можем переписать задачу (4) следующим образом:

Г 0 ^

ди дF „

-+ — = S + D, F = Fc

дt дх

D =

г д!о.

Cv 2

v дх /

(5)

Запишем в общем виде, как будут выглядеть начальные и граничные условия для каждого сосуда. В качестве начального условия полагаем

U (х,0) = ип(х).

На левом конце рассматриваемого сосуда зададим граничное условие первого рода, а на правом конце - условие свободного выхода потока:

8U(L.t)

U(0.t) = U0(t).

дп

= 0.

+

v

3. Численный метод

Как и в работах [7, 8] используем метод дробных шагов: исходную задачу (5) разделим на гиперболическую и параболическую соответственно:

и+дЕ = (6)

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

д дх

Т = (7)

Тогда, решение исходной задачи (5) может быть заменено последовательным решением этих двух подзадач. В данной работе используется метод расщепления Годунова: на каждом шаге по времени будем решать

гиперболическую подзадачу, чтобы получить прогноз V , который используется в качестве начального значения в параболической подзадаче

А1,И „ А1, Р

V1 ^ V ^ и7+\ Здесь H и P означает решение гиперболической и параболической подзадач на 1 -м шаге по времени. Второй шаг можно рассматривать как корректор.

Для решения гиперболической подзадачи (6) используем метод контрольных объемов: каждую подобласть разделим на ячейки Ц. Для каждой такой ячейки должен выполняться закон сохранения

^ди г дЕ г

-dx + — dx = Sdx.

Ы J дх • I, I, I,

При построении дискретных аналогов производных по пространству используем МИ8СЬ-ограничитель [22]. Для решения дифференциальное уравнение первого порядка, получающегося после дискретизации по пространству в разработанном программном комплексе реализованы два метода интегрирования по времени второго порядка: метод Рунге-Кутты и двухшаговый метод Адамса-Башфорта.

Заметим, что для A решать параболическую подзадачу (7) не требуется, так как А1+1 = А . Поэтому (7) принимает вид:

д£ = г д!£ а " У дх2.

Для решения данной задачи используем метод Кранка-Николсона:

Q/+1 - Qj _C

At 2

- 2Qi+1 + Qff + QU - 2Qi + Q^

Ax 2 Ax2

(8)

Здесь V1 = 2 , т.е. V1 является решением гиперболической подзадачи.

Разностная задача (8) решается методом прогонки.

306

4. Декомпозиция области

Для распараллеливания вычислений при решении задач вычислительной механики часто используют методы декомпозиции области [10]. Идея методов декомпозиции заключается в том, что расчетная область разбивается на пересекающиеся или непересекающие подобласти и исходная задача представляется в виде совокупности вспомогательных краевых задач в этих подобластях. При этом на границах подобластей, совпадающих с границами исходной расчетной области, ставятся граничные условия из исходной задачи, а на остальных границах подобластей, называемых внутренними, ставятся условия сопряжения (интерфейсные условия). Решение вспомогательных задач может осуществляться параллельно.

На рис. 2 показан пример декомплозиции расчетной области на две подобласти: в месте стыковки подобластей имеем четыре неизвестные: Ар ,

Qp на выходе из родительской артерии и А^, Q¿ на входе в дочернюю. Здесь и далее нижний индекс р, ё определяет принадлежность к родительской и дочерней артериям соответсвенно.

Рис. 2. Декомпозиция области Fig. 2. Domain decomposition

В точке соединения на каждом n + 1 -м шаге по времени должны выполняться уравнение расхода потока жидкости и закон сохранения импульса:

Qn;l=Q5+1,

(9)

~Pp

i П n+1 Л

QP

v Ap

n+1

, T>n+1 _ 1

+Pp -- Pd

in n+1 Л 2 Qd

Af1

+ PS+1-

(10)

Значения давления Pp+1 и Рп+1 зависят от площади поперечного сечения и вычисляются при помощи (2).

В работе [7] показано, что в физиологических условиях число Уомерсли достаточно мало, из-за чего источниковые члены в рассматриваемой системе уравнений оказываются незначительными и в системе преобладает гиперболичность. Поэтому два недостающих условия на стыке подобластей могут получены при помощи характеристик или инвариантов Римана[22]

_Q.

W12-^~ + 4c.

(11)

2

1

/

Здесь с - скорость Моэнса - Кортевега, которая является скоростью волны давления, т.е. скоростью пульсовой волны:

С =

J 2р

1

A 2.

Два собственных значения Л, и Л имеют противоположные знаки:

Л 2 = — + с. 1,2 А

Соответственно, на каждом конце вычислительной области существует ровно одна входящая характеристика и одна выходящая. Поскольку Ж, 2 постоянны

вдоль линий 2 = Л, 2 в пространственно-временной плоскости, можно

получить значения Ж"+1(Ц) и Ж2р+1(0), применив интерполяцию данных с п -го шага по времени:

жр+\ц) = жр(Ц-Лр(Ц)Д), ж"+1(0) = жр(-л2(0)д), t>о. (12)

Таким образом, в родительской артерии значение (Ж,)р+1 можно вычислить

по формуле (12) и потребовать, чтобы оно было равно значению Ж1(ир+1), которое задается соотношением (11). В итоге имеем уравнение

(13)

Аналогично строится уравнение для для дочерней артерии:

(Ж2)п/1= Ж2(и"+1). (14)

Таким образом, имеем систему из четырех уравнений (9), (10), (13) и (14) с четырьмя неизвестными. Ее решение даст значения неизвестной и на стыке подобластей. С учетом условия (9) уравнения (10), (13), (14) примут вид:

W1) p+1= Wi(up+1).

1

i Г)п+1 ^ Qp

, п+1

v Ap ,

v p

+ P

n+1

1

i Г>п+1 ^ Q p

»n+1

+Pd+1 =0,

' 2 РА„

V а у (Ж,) Р+1 - Апр+\ —Р+1) = 0,

ГО Р+1 - Ж2( АР+1, —Р+1) = 0. Таким образом, имеем нелинейную алгебраическую систему вида F (X) = 0, X = (Ар+1, —пр+1, А"+У.

Для ее решения применим итерационный метод Ньютона. Матрица Якоби считается аналитически. В качестве начального приближения будем использовать значения неизвестных с предыдущего шага по времени 308

2

2

X(0) = (АПр&р,А5 )Т.

Расчетная формула для расчета к + 1 -го итерационного приближения метода Ньютона имеет следующий вид

X(к+1) = X(к) -(Г(Х(к)))-1 Р(Х(к)), к = 0,1,К

Отметим, что во всех вычислительных экспериментах было достаточно

нескольких итераций для достижения точности 10 -6 .

5. Оценка эффективности распараллеливания вычислений

Определим, какие вычисления имеет смысл распараллелить. Для этого необходимо выделить участки программы, на выполнение которых расходуется наибольшее количество времени. Полная структура временных затрат при решении тестовой задачи была определена с помощью профилировщика AMD CodeAnalyst [23]: 95,8 % времени работы программы занимает расчет значений A и Q внутри каждой подобласти (операция 1), а 1,2 % - вычисление неизвестных из интерфейсных условий на стыках подобластей (операция 2). Все прочие операции занимают 3 % времени выполнения расчета (рис. 3).

Рис. 3. Структура временных затрат при решении тестовой задачи Fig. 3. The time-cost structure

Оценим максимальное ускорение, которое можно получить при распараллеливании только операции 1 или операций 1 и 2, при помощи закона Амдала [24], который гласит, что для системы из S вычислительных ялер максимально возможное ускорение программы с долей P параллельного кода и (1 - P) последовательного кода равно

1

+ (1 - P)

а -

Полученные оценки приведены в табл. 1. Они соответствуют случаю идеального распараллеливания, при котором параллельный код на вычислительной системе с S ядрами выполняется в S раз быстрее. Реальное ускорение будет ниже, поскольку при переходе от последовательной программы к параллельной добавятся накладные расходы на поддержку многопоточных вычислений. Далее для распараллеливания вычислений будем использовать технологию параллельного программирования OpenMP и библиотеку MPI. Технология OpenMP предполагает, что пользователь при помощи ключевых слов лишь обозначает задачи, выполняемые параллельно, а организация управления потоками и работы с ними определяются самой технологией. Таким образом, вышеперечисленные накладные расходы на поддержку многопоточности, а, значит, и реальное ускорение, зависят от используемой технологии параллельного программирования.

Табл. 1. Максимально возможное ускорение при распараллеливании операций 1 и 2 Table 1. The maximum possible speed up at operations 1 and 2 in parallel mode

Распараллеливаемые операции P Максимальное ускорение, раз

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

2 ядра 4 ядра 8 ядер 12 ядер

1 0,958 1,92 3,55 6,18 8,21

1, 2 0,970 1,94 3,67 6, 61 9,02

Вычислительные эксперименты проводились на учебно-экспериментальном вычислительном кластере кафедры ФН-2 "Прикладная математика" МГТУ им. Н.Э. Баумана [25]. Расчетная область разбивалась на 100 подобластей. Каждая подобласть состояла из 200 контрольных объемов. Моделировалось 1000 шагов по времени. Распараллеливались операции 1 и 2.

На рис. 4 представлена зависимость ускорения от числа вычислительных ядер при распараллеливания при помощи технологии ОрепМР.

Рис. 4. Реальное ускорение при использовании технологии OpenMP и оценки ускорения Fig. 4. The real acceleration (OpenMP technology) and acceleration estimates

Видно, что реальное ускорение превышает линейное. Это можно объяснить тем, что при решении задачи на одном процессоре данные постоянно подгружаются в кэш-память, а при распараллеливании задачи происходит деление данных по процессорам, и кэш каждого модуля смог вместить свою порцию данных.

На рис. 5 представлена зависимость ускорения от числа вычислительных ядер при распараллеливании, использующем библиотеку MPI.

число модулей

2 4 В 12 16

Рис. 5. Реальное ускорение при использовании библиотеки MPI и оценки ускорения Fig. 5. The real acceleration (MPI library) and acceleration estimates

На рассмотренной тестовой задаче при числе модулей, превышающем четыре, наблюдается существенное расхождение реального ускорения с оценкой по закону Амдала. Это объясняется главным образом влиянием межмодульных обменов. При меньшем числе вычислительных ядер выигрыш по времени, достигаемый за счет использования библиотеки MPI, не превышает нескольких процентов по сравнению с применением технологии OpenMP.

6. Заключение

Исследована эффективность распараллеливания вычислений при численном моделировании кровотока в квазиодномерном приближении. Рассмотрена задача о моделировании течения крови в отдельном кровеносном сосуде. Построение параллельного алгоритма произведено при помощи метода декомпозиции области. В каждой подобласти задача на каждом шаге по времени расщепляется на гиперболическую и параболическую подзадачи при помощи расщепления Годунова. Для решения гиперболической подзадачи используется интегро-интерполяционный метод, основанный на схеме MUSCL. Для интегрирования по времени применяются методы Рунге-Кутты и Адамса-Башфорта второго порядка. Для решения параболической подзадачи используется метод Кранка-Николсона. На стыках подобластей интерфейсные условия образуют нелинейные системы с тремя неизвестными. Эти системы

решаются при помощи метода Ньютона. С помощью профилировщика AMD CodeAnalyst была определена структура временных затрат при решении тестовой задачи в последовательном режиме. При помощи закона Амдала получены оценки максимально возможного ускорения при распараллеливании наиболее дорогостоящих с вычислительной точки зрения операций. При реализации полученного алгоритма в разработанном авторами настоящей работы программном комплексе использовались технология OpenMP и библиотека MPI. Расчеты проводились на учебно -вычислительном кластере кафедры ФН-2 "Прикладная математика" МГТУ им. Н.Э. Баумана. Результаты вычислительных экспериментов показали, что выигрыш по времени, достигаемый за счет использования библиотеки MPI, не превышает нескольких процентов по сравнению с применением технологии OpenMP. В связи с этим, принимая во внимания простоту распараллеливания алгоритмов посредством OpenMP, можно остановить выбор на данной технологии, однако использование MPI позволяет сделать программный комплекс универсальным -работающим как на системах с общей памятью, так и на системах с распределенной памятью.

Благодарности

Работа выполнена при частичной финансовой поддержке гранта Президента Российской Федерации для молодых российских ученых-кандидатов наук (проект МК-743.2018.8).

Список литературы

[1]. Quarteroni A., Formaggia L. Mathematical Modelling and Numerical Simulation of the Cardiovascular System. Handbook on numerical analysis, Ed. By P. G. Ciarlet, J. L. Lions. Amsterdam: Elsevier, 2004, 101 p. DOI: 10.1016/S1570-8659(03)12001-7

[2]. Quarteroni A., Formaggia L., Veneziani A. Cardiovascular Mathematics: Modeling and Simulation of the Circulatory System. Milano: Springer, 2011, 526 p.

[3]. Goals - euHeart. URL: https http://www.euheart.eu/index_id_27.html (дата обращения: 09.05.2018).

[4]. Formaggia L., Lamponi D., Quarteroni A. One dimensional models for blood flow in arteries. Journal of Engineering Mathematics, vol. 47, 2003, pp. 251-276. DOI: 10.1023/B:ENGI.0000007980.01347.29.

[5]. Azer K., Peskin C. S. A one-dimensional model of blood flow in arteries with friction and convection based on the Womersley velocity profile. Cardiovasc. Eng., vol. 7, 2007, pp. 51-73. DOI: 10.1007/s10558-007-9031-y

[6]. Sherwin S. J., Franke V., Peiro J., Parker K. One-dimensional modeling of vascular network in space-time variables. Journal of Engineering Mathematics. vol. 47, 2003, pp. 217-250. DOI: 10.1023/B:ENGI.0000007979.32871.e2

[7]. Wang X., Delestre O., Fullana J.-M., Saito M., Ikenaga Y., Matsukawa M., Lagree P.-Y. Comparing different numerical methods for solving arterial 1D flows in networks. Comput. Methods Appl. Mech. Eng., vol. 15, 2012, pp. 61-62. DOI: 10.1080/10255842.2012.713677

[8]. Wang X., Fullana J.-M., Lagrée P.-Y. Verification and comparison of four numerical schemes for a 1D viscoelastic blood flow model. Computer Methods in Biomechanics and Biomedical Engineering, 2014, pp.1-22. DOI: 10.1080/10255842.2014.948428

[9]. Аветисян А.И., Бабкова В.В., Гайсарян С.С., Губарь А.Ю. Разработка параллельного программного обеспечения для решения трехмерной задачи о рождении торнадо по теории Николаевского. Матем. моделирование, том. 20, № 8, . 2008 г., стр. 28-40.

[10]. Марчевский И.К., Токарева С.А. Сравнение эффективности параллельных алгоритмов решения задач газовой динамики на разных вычислительных комплексах. Вестник МГТУ им. Н.Э. Баумана. Серия "Естественные науки", № 1 2009 г., стр. 90-97.

[11]. Марчевский И.К., Щеглов Г.А. Применение параллельных алгоритмов при решении задач гидродинамики методом вихревых элементов. Вычислительные методы и программирование, том 11, стр. 105-110.

[12]. Морева В.С. Способы ускорения вычислений при решении плоских задач аэродинамики методов вихревых элементов. Вестник МГТУ им. Н.Э. Баумана. Серия "Естественные науки", № S, 2011 г., стр. 83-95.

[13]. Лукин В.В., Марчевский И.К., Морева В.С., Попов А.Ю., Шаповалов К.Л., Щеглов Г.А. Учебно-экспериментальный вычислительный кластер. Ч. 2. Примеры решения задач. Вестник МГТУ им. Н.Э. Баумана. Серия "Естественные науки". 2012. № 4. С. 82-102.

[14]. Марчевский И.К., Пузикова В.В. Исследование эффективности распараллеливания вычислений при моделировании течений вязкой несжимаемой среды методом LS-STAG на системах с общей памятью. Вычислительные методы и программирование, том 16, 2015 г., стр. 595-606.

[15]. Пузикова В.В. Реализация параллельных вычислений в программном комплексе «LS-STAG_turb» для моделирования течений вязкой несжимаемой среды на системах с общей памятью. Труды ИСП РАН, том 28, вып. 1, 2016 г., стр. 221-242. DOI: 10.15514/ISPRAS-2016-28(1)-13

[16]. MPICH Overview | MPICH. URL: https://www.mpich.org/about/overview/ (дата обращения: 09.05.2018).

[17]. Avetisyan A.I., Gaisaryan S.S., Ivannikov V.P., Padaryan V.A. Productivity prediction of MPI programs based on models. Autom. Remote Control., vol. 68, 2007, pp. 750-759. DOI: 10.1134/S0005117907050037

[18]. Intel (R) Cillk (TM) Plus | Intel® Software. URL: https://software.intel.com/ru-ru/node/522579 (дата обращения 09.05.2018).

[19]. Reinders J. Intel Threading Building Blocks: Outfitting C++ for Multi-Core Processor Parallelism. Sebastopol: O'Reilly, 2007, 336 p.

[20]. OpenMP FAQ - OpenMP. URL: https://www.openmp.org/about/openmp-faq/ (дата обращения: 09.05.2018).

[21]. Quarteroni A., Valli A. Domain decomposition methods for partial differential equations. Oxford: Clarendon Press, 1999, 360 p.

[22]. Годунов С.К., Забродин А.В., Иванов М.Я., Крайко А.Н., Прокопов Г.П. Численное решение многомерных задач газовой динамики. М.: Изд-во "Наука", 1976. 400 с.

[23]. Drongowski P., Lei Yu, Swehosky F., Suthikulpanit S., Richter R., Incorporating Instruction-Based Sampling into AMD CodeAnalyst. 2010 IEEE International

Symposium on Performance Analysis of Systems & Software (ISPASS 2010), White Plains, NY, 2010, pp. 119-120. DOI: 10.1109/ISPASS.2010.5452049.

[24]. Гергель В.П. Высокопроизводительные вычисления для многопроцессорных многоядерных систем. М.: Изд-во Моск. ун-та, 2010, 544 с.

[25]. Лукин В.В., Марчевский И.К. Учебно-экспериментальный вычислительный кластер. Ч. 1. Инструментарий и возможности. Вестник МГТУ им. Н.Э. Баумана. Серия «Естественные науки», № 4, 2011 г., стр. 28-43.

Application of parallel algorithms for numerical simulation of quasi-one dimensional blood flow

A.N. Avdeeva <[email protected]> V.V. Puzikova <[email protected]> Federal state budgetary institution of higher professional education «Bauman Moscow State Technical University (National research university of technology) », 5/1, 2-nd Baumanskaya st., Moscow, 105005, Russia

Abstract. The main goal of modern hemodynamic simulation is the prediction of blood pressure in the arteries, as well as the study of the various factors complex effect on the cardiovascular system characteristics. Quasi-one dimensional models of blood flow through blood vessels are the most popular. They allow to model the blood flow in the entire vascular system. Since full-scale simulation of the cardiovascular system requires large computational costs, the problem of parallelizing computation is actual. In this paper, the efficiency study was carried out for parallel algorithms in the numerical simulation of blood flow in the quasi-one-dimensional approximation. For simplicity, we consider the problem of the blood flow simulation in a separate blood vessel. When constructing a parallel algorithm, the domain decomposition method was applied. In each subdomain, the problem at each time step splits into a hyperbolic and parabolic subproblems. To solve the hyperbolic subtask, an integro-interpolation method based on the MUSCL scheme is used. To integrate over time, the second order Runge-Kutta and Adams-Bashfort methods are applied. The Crank-Nicholson method is used to solve the parabolic subproblem. At the subdomains conjunctions, the interface conditions are non-linear systems with three unknowns. These systems are solved using the Newton method. The time-cost structure was obtained for solving the test problem in a serial mode using the AMD CodeAnalyst profiler. Computations were carried out at the cluster of the BMSTU "Applied Mathematics" FN-2 department. The computational results showed that the time gain achieved by using the MPI library does not exceed a few percent in comparison with the OpenMP technology usage. Taking into account the simplicity of parallelizing algorithms through OpenMP, we can choose this technology, but MPI usage allows to make the software package universal (it can work both on shared memory systems and on distributed memory systems).

Keywords: OpenMP technology; MPI; quasi-one dimensional model; blood flow; domain decomposition method; parallel algorithm; cluster; MUSCL scheme; Godunov splitting.

DOI: 10.15514/ISPRAS-2018-30(2)-15

For citation: Avdeeva A.N., Puzikova V.V. Application of parallel algorithms for numerical simulation of quasi-one dimensional blood flow. Trudy ISP RAN/Proc. ISP RAS, vol. 30, issue 2, 2018, pp. 301-316 (in Russian). DOI: 10.15514/ISPRAS-2018-30(2)-15

References

[1]. Quarteroni A., Formaggia L. Mathematical Modelling and Numerical Simulation of the Cardiovascular System. Handbook on numerical analysis, Ed. By P. G. Ciarlet, J. L. Lions. Amsterdam: Elsevier, 2004, 101 p. DOI: 10.1016/S1570-8659(03)12001-7

[2]. Quarteroni A., Formaggia L., Veneziani A. Cardiovascular Mathematics: Modeling and Simulation of the Circulatory System. Milano: Springer, 2011, 526 p.

[3]. Goals - euHeart. URL: https http://www.euheart.eu/index_id_27.html (дата обращения: 09.05.2018).

[4]. Formaggia L., Lamponi D., Quarteroni A. One dimensional models for blood flow in arteries. Journal of Engineering Mathematics, vol. 47, 2003, pp. 251-276. DOI: 10.1023/B:ENGI.0000007980.01347.29.

[5]. Azer K., Peskin C. S. A one-dimensional model of blood flow in arteries with friction and convection based on the Womersley velocity profile. Cardiovasc. Eng., vol. 7, 2007, pp. 51-73. DOI: 10.1007/s10558-007-9031-y

[6]. Sherwin S. J., Franke V., Peiro J., Parker K. One-dimensional modeling of vascular network in space-time variables. Journal of Engineering Mathematics. vol. 47, 2003, pp. 217-250. DOI: 10.1023/B:ENGI.0000007979.32871.e2

[7]. Wang X., Delestre O., Fullana J.-M., Saito M., Ikenaga Y., Matsukawa M., Lagree P.-Y. Comparing different numerical methods for solving arterial 1D flows in networks. Comput. Methods Appl. Mech. Eng., vol. 15, 2012, pp. 61-62. DOI: 10.1080/10255842.2012.713677

[8]. Wang X., Fullana J.-M., Lagree P.-Y. Verification and comparison of four numerical schemes for a 1D viscoelastic blood flow model. Computer Methods in Biomechanics and Biomedical Engineering, 2014, pp.1-22. DOI: 10.1080/10255842.2014.948428

[9]. Avetisyan A.I., Babkova V.V., Gaisaryan S.S., Gubar' A.Yu. Development of parallel software for 3D tornado arising modeling by Nikolaevskiy theory. Matematicheskoe modelirovanie [Mathematical Models and Computer Simulations], vol. 20, № 8, 2008, pp. 28-40 (in Russian)

[10]. Marchevskii I.K., Tokareva S.A. Comparison of the parallel algorithms effectiveness for solving gas dynamics problems on different computational complexes. Vestnik MGTU im. N.E. Baumana. Ser. Estestvennye nauki [Herald of the Bauman Moscow State Technical University. Series Natural Sciences], № 1, 2009, pp. 90-97 (in Russian)

[11]. Marchevskii I.K., Shcheglov G.A. Application of parallel algorithms for solving hydrodynamic problems by the vortex element method. Vychislitel'nye metody i programmirovanie [Computational methods and programming], vol. 11, 2010, pp. 105110 (in Russian)

[12]. Moreva V.S. Ways for calculation speed-up in solving 2D aerodynamics problems by vortex element method. Vestnik MGTU im. N.E. Baumana. Ser. Estestvennye nauki [Herald of the Bauman Moscow State Technical University. Series Natural Sciences], № S, 2011, pp. 83-95 (in Russian)

[13]. Lukin V.V., Marchevskii I.K., Moreva V.S., Popov A.Yu, Shapovalov K.L., Shcheglov G.A. Educational-experimental computing cluster. Part 2. Examples of problem solving. Vestnik MGTU im. N.E. Baumana. Ser. Estestvennye nauki [Herald of the Bauman Moscow State Technical University. Series Natural Sciences], № 4, 2012, pp. 82-102 (in Russian)

[14]. Marchevsky I.K., Puzikova V.V. Efficiency investigation of computation parallelization for viscous incompressible flow simulation on systems with shared memory.

Vychislitel'nye metody i programmirovanie [Computational methods and programming], vol. 16, 2015, pp. 595-606 (in Russian)

[15]. Puzikova V.V. Realization of parallel computations in the software package «LS-STAG_turb» for viscous incompressible flow simulation on systems with shared memory. Trudy ISP RAN / Proc. ISP RAS, vol. 28, issue 1. 2016, pp. 221-242. DOI: 10.15514/ISPRAS-2016-28(1 )-13 (in Russian)

[16]. MPICH Overview | MPICH. URL: https://www.mpich.org/about/overview/ (accessed: 09.05.2018).

[17]. Avetisyan A.I., Gaisaryan S.S., Ivannikov V.P., Padaryan V.A. Productivity prediction of MPI programs based on models. Autom. Remote Control., vol. 68, 2007, pp. 750-759. DOI: 10.1134/S0005117907050037

[18]. Intel (R) Cillk (TM) Plus | Intel® Software. URL: https://software.intel.com/ru-ru/node/522579 (accessed: 09.05.2018).

[19]. Reinders J. Intel Threading Building Blocks: Outfitting C++ for Multi-Core Processor Parallelism. Sebastopol: O'Reilly, 2007, 336 p.

[20]. OpenMP FAQ - OpenMP. URL: https://www.openmp.org/about/openmp-faq/ (дата обращения: 09.05.2018).

[21]. Quarteroni A., Valli A. Domain decomposition methods for partial differential equations. Oxford: Clarendon Press, 1999, 360 p.

[22]. Godunov S.K., Zabrodin A.V., Ivanov M.Ya., Kraiko A.N., Prokopov G.P. Numerical solution of gas dynamics multidimensional problems. Moscow: Science Publ., 1976. 400 p. (in Russian)

[23]. Drongowski P., Lei Yu, Swehosky F., Suthikulpanit S., Richter R., Incorporating Instruction-Based Sampling into AMD CodeAnalyst. 2010 IEEE International Symposium on Performance Analysis of Systems & Software (ISPASS 2010), White Plains, NY, 2010, pp. 119-120. DOI: 10.1109/ISPASS.2010.5452049.

[24]. Gergel' V.P. High-performance computing for multi-core systems. Moscow: Moscow University Publ., 2010, 544 p. (in Russian)

[25]. Lukin V.V., Marchevskii I.K. Educational-experimental computing cluster. Part 1. Tools and capabilities. Vestnik MGTU im. N.E. Baumana. Ser. Estestvennye nauki [Herald of the Bauman Moscow State Technical University. Series Natural Sciences], № 4, 2011, pp. 28-43 (in Russian)

i Надоели баннеры? Вы всегда можете отключить рекламу.