УДК 621.791.14
АНАЛИЗ ЭФФЕКТИВНОСТИ РАСПАРАЛЛЕЛИВАНИЯ РЕШАТЕЛЕЙ ПАКЕТА ANSYS MULTIPHYSICS ПРИ МОДЕЛИРОВАНИИ ПРОЦЕССА ЛИНЕЙНОЙ СВАРКИ ТРЕНИЕМ
А.Т. Бикмеев, Р.К. Газизов, В.Ю. Иванов, А.А. Касаткин, В.В. Латыш, С.Ю. Лукащук, И.Ш. Насибуллаев, К.Р. Юлмухаметов, А.М. Ямилева
ANALYSIS OF PARALLELIZATION EFFICIENCY
OF THE ANSYS MULTIPHYSICS SOLVERS IN SIMULATION
OF LINEAR FRICTION WELDING
A.T. Bikmeev, R.K. Gazizov, V.Yu. Ivanov, A.A. Kasatkin, V.V. Latysh,
S.Yu. Lukashchuk, I.Sh. Nasibullayev, K.R. Yulmuhametov, A.M. Yamileva
Особенностью процесса линейной сварки трением (ЛСТ) является быстротечность процесса, сопровождаемая большими градиентами температуры и напряжений. Моделирование этого процесса в пакете ANSYS Multiphysics требует использование конечных элементов малого размера, а также малого шага по времени, что, в свою очередь, приводит к необходимости использования многоядерных и кластерных вычислительных систем и возможностей параллельных решателей пакета. Как показывают результаты этих расчетов, далеко не все решатели одинаково эффективны.
Ключевые слова: линейная сварка трением, инженерные пакеты, решатели.
Small welding process time and high gradients of temperature and stress are important features of linear friction welding. Small size of finite elements and also small time step are required to model this process with the ANSYS Multiphysics software, so high performance computer systems and parallel solver capabilities are needed. Not all of the available solvers demonstrate acceptable efficiency for this problem on considered computer system.
Keywords: linear friction welding, engineering software, solvers.
Введение
При производстве современных лопаток для авиационных двигателей и их объединении в блиски требуется использовать новые методы соединения разных частей изделия. Ведущие авиастроительные компании наиболее широко используют технологию линейной сварки трением.
Сварка трением — это разновидность сварки давлением, при которой нагрев осуществляется трением, вызванным перемещением друг относительно друга соединяемых частей свариваемого изделия [1]. Процесс линейной сварки трением (ЛСТ) осуществляется возвратно-поступательным движением частей, подлежащих свариванию, с частотой порядка 60 Гц и амплитудой до 3-х мм, при этом, для образования плотного контакта, обе части прижимаются друг к другу с силой порядка 40 кН.
Согласно Вайрнсу и Фрост [2] в процессе линейной сварки трением можно выделить четыре стадии (фазы): начальная, переходная, равновесная и завершающая. На начальной стадии свариваемые изделия приводятся в контакт под давлением и начинается их относительное движение, сопровождаемое нагревом. В течение этого процесса область контакта увеличивается за счет изнашивания шероховатостей. При достаточном тепловыделении за счет трения материал на границе становится мягче, и большие неровности на границе контакта начинают стачиваться - наступает переходная стадия процесса. Площадь контакта становится равной площади сечения образцов и образуется мягкий пластический слой, который уже не может сдерживать прижимающую нагрузку. Затем наступает равновесная стадия, характеризующаяся осевым укорачиванием вследствие вытеснения пластичного материала из зоны контакта, образуется грат. На завершающей стадии механическое движение завершается, и к образцам прикладывается дополнительное давление (проковка) для образования сварного соединения. При математическом моделировании процесса линейной сварки необходимо учитывать следующие особенности процесса:
• Быстротечность процесса - весь процесс линейной сварки трением занимает около 2 с. За это время происходит нагрев на 500 - 600 °С, и напряжения достигают предела текучести (~ 100 МПа). Высокая скорость процесса - частота колебаний брусков составляет порядка 50 Гц при амплитуде колебаний порядка 2 мм. Для сходимости расчетных методов необходимо выбирать очень маленький шаг но времени (10-4...10-5 с). Время расчета возрастает за счет большого количества итераций по времени (1000 итераций за 1 шаг, необходимость разбивки всего процесса на несколько шагов).
• Ограниченное количество симметрий модели. Бруски имеют только зеркальную симметрию в плоскости движения, что позволяет уменьшить количество элементов, участвующих в расчете, только вдвое. При расчетах моделей, приближенных к реальности (форма лопатки) симметрия отсутствует. Это означает, что необходимо моделировать полную трехмерную задачу с мелкой неравномерной сеткой.
Таким образом, для моделирования процесса ЛСТ требуются большие вычислительные ресурсы, включая возможность проведения параллельных вычислений на многопроцессорных системах.
В данной работе было проведено математическое моделирование второй стадии линейной сварки трением в пакете АКБУБ МиШрЬузюэ. Проведена оценка эффективности различных решателей на разных задачах.
1. Постановка задачи
Математическое моделирование процесса линейной сварки трением является сложной задачей, поскольку в рамках этого процесса происходит несколько физических явлений:
1) неравномерное движение тел (используются законы механики);
2) скольжение одного тела по поверхности другого (используются законы механики);
3) нагрев и остывание (используются законы термодинамики);
4) упруго-пластические деформации (используются законы теории упругости и термодинамики).
В связи с этим всю задачу обычно разбивают на отдельные части по физическим явлениям и моделируют их раздельно.
При деформации тела его точки смещаются относительно первоначального положения
= {ж^}. Для описания деформаций вводят вектор деформаций щ = ж* — [3]. В
теории упругости принято использовать не вектор, а тензор деформаций, определяемый
следующим образом:
1 / дщ ди^
Єгі ~ о \ я™. ^ дх.
(1)
2 \дxj
В деформированном теле возникают силы, стремящиеся вернуть его в исходное состояние. Эти силы называют внутренними напряжениями и описывают при помощи тензора напряжений. Если на тело действует сила Р = {Р*}, то компоненты тензора внутренних напряжений для тела в равновесном состоянии можно получить из уравнения:
ч - доік _
^2 + Рг = 0.
к=1
дхк
(2)
Связь между компонентами вектора напряжений и деформаций задается выражениями:
— К-Е^бгк ~\~ 2/Х ^Со* 5 &гк®11 ~Ь (^@ik 7^^Чк@■>
здесь К — модуль всестороннего сжатия, ц — модуль сдвига.
Условие равновесия тела, в котором деформации вызваны силами, приложенными к его поверхности, в векторной форме имеет вид:
§га<і сііуи + (1 — 1
іи = 0,
(3)
где V — коэффициент Пуассона, а внешние силы входят в условие в качестве граничных условий.
Для деформаций, изменяющихся со временем, уравнение (3) примет вид [4]:
к=1
дхк
д2щ ді2
При деформировании тела, сопровождающимся изменением температуры (как вследствие внешнего нагрева, так и в результате самой деформации) тензор внутренних напряжений задается выражением [3]:
@ік — Ка(Т Т§)6ік + Кєррбік + 2,Ц ^Єік ~Є££§ік
где а — коэффициент теплового расширения. Если тело нагрето не равномерно, то появляются объемные силы и условие равновесия (3) приобретает вид [3]:
-гоїгоіи = аУГ.
1 + г/ ° 2(1 + г/)
Распределение температуры в объеме образца определяется уравнением теплопроводности:
дТ
— = сЦу(с*УГ) + /, д1
где / — внешний источник тепла. В процессе линейной сварки трением тепло выделяется за счет трения. Закон трения выберем в форме Амонтона-Кулона:
Ffr = Л(Г)ДП,
где А(Т) — коэффициент трения, зависящий от температуры, Яп — сила реакции опоры.
Для материалов в справочниках обычно указываются такие параметры как модуль Юнга и коэффициент Пуассона и. Запишем выражения, определяющие связь между этими параметрами и модулями сдвига и всестороннего сжатия [3]:
_ 9Кц _ 1 3К - 2ц
3 К + ц ’ и 2 3 К + ц '
В ходе работы было исследовано три задачи: нагрев образцов за счет трения (термоструктурная), нагрев одного образца движущимся источником тепла (тепловая) и образец внутри зажима (структурная).
1.1. Геометрия образцов
(а) (б) (в)
Рис. 1. Геометрия ЛСТ (а), сетка (б), геометрия структурной задачи (в)
Исследуются термо-упругие деформации образцов размером 26мм х 35мм х 13мм из сплава Т16А14У (рис. 1 (а)). Для повышения точности расчетов без увеличения числа конечных элементов была использована неравномерная сетка вдоль оси Оу (т.к. область нагрева располагается в тонком слое вблизи контакта, то рассматривается слой меньшей толщины в 5 мм), в двух других направлениях сетка равномерная. Рассматривается адиабатический процесс (замкнутая система).
1.2. Термоструктурная задача
Геометрическая модель состоит из двух одинаковых брусков, стоящих один на другом. Верхний образец скользит но поверхности нижнего образца вдоль длинной стороны, нижний образец неподвижен. Для задания параметров скольжения между брусками создается контакт. Тип контакта - закрытый и скользящий, без взаимного проникновения. Коэффициент трения равен 0.3. В качестве объемного элемента используется 3D 20-ти узловой тип элемента SOLID 226 [5]. Нижний брусок фиксируется своей нижней гранью. На верхний брусок фиксации не наложено, но все его точки движутся по периодическому закону х = a sin(wi) с амплитудой a = 2 мм, частотой f = 50 Гц. На верхнюю грань верхнего образца задано постоянное давление 100 МПа. Рассматривается изотропный упругий материал. В модели материала используются параметры сплава Ti6A14V [6]. Общее число элементов, включая контактные — 7040.
1.3. Тепловая задача
Рассматривается модель нагрева с тепловым потоком, имитирующим тепловыделение при трении. Так как в первом приближении тепловыделение одинаково на обоих образцах, моделируется один брусок. Тепловой поток задан на нижнюю плоскость (плоскость контак-
та) и определяется выражением:
ЛFaw I cos(ciji) I 1 . .
q = отт. 7------———Ф(ж,£), ®(x,t) = - sgn(x + asm(ujt)) + sgn(L - asin wi - x) ,
2W L — a| Z
где L — длина контактной плоскости вдоль оси Ох (вдоль направления движения), W — длина контактной плоскости вдоль оси Oz (перпендикулярно направлению движения).
Таким образом, тепловой поток пульсирует во времени и колеблется вдоль оси Ох. В качестве конечных элементов выбраны тепловые 20-ти точечные элементы SOLID 90. Общее число элементов равно 3200. Использовались те же параметры материала, что и в предыдущей задаче.
1.4. Структурная задача
Структурная задача рассматривалась на примере статического зажима образца (рис. 1 (в)) наиболее простой конструкции: две прямоугольные скобы сжимают образец вдоль более длинной стороны. В результате на две противоположные грани зажима действует давление 100 МПа. Помимо этого, такое же давление задано на верхнюю грань верхнего образца, нижняя грань нижнего образца жестко закреплена. Как для зажима, так и для образца задавались те же параметры материала что и ранее. Для расчетов использовались структурные 20-ти точечные элементы SOLID 186. Общее количество элементов равно 20336.
2. Результаты моделирования
Моделирование проводилось на суперкомпьютере УГАТУ (266 двухпроцессорных узлов по 4 ядра на процессор и 8 ГБ ОЗУ на узел).
В результате расчета термоструктурной задачи были получены поля температур и напряжений (рис. 2). На рис. 2 (в, г, д) показаны распределения температуры вдоль контрольных линий, обозначенных на рис. 2 (а, б). В плоскости контакта наибольший перепад температуры наблюдается в приграничной области образцов и достигает величины 500 К. Во внутренней области распределение температуры более равномерное. В направлении, перпендикулярном плоскости контакта, наблюдается быстрое убывание температуры до комнатной. Таким образом, ширина зоны, подверженной термическому влиянию составляет около 1, 5 мм.
При рассмотрении поля напряжений следует, прежде всего, отметить, что максимальные напряжения наблюдаются в плоскости контакта. При этом в достаточно большой области контакта, не включающей приграничную область, напряжения остаются практически постоянными, и лишь вблизи границ их величина резко уменьшается из-за прямой зависимости напряжений от температуры через тепловое расширение (рис. 2 (е)).
Для тепловой задачи температурное поле по линиям Lx и Ly практически совпадает с температурным полем, полученным при решении термоструктурной задачи. По оси Oz отличия тепловой задачи и термоструктурной значительны (особенно вблизи границы) из-за того, что в температурной задаче в формуле для теплового потока не учитывается зависимость от координаты Z и температура во всех точках этой оси одинакова.
Из анализа решения структурной задачи следует, что напряжения распределяются вдоль более длинной грани, в результате противодействия поперечному расширению тела боковыми частями зажима. Наибольшие величины напряжений концентрируются на углах образцов, где давление действует вдоль двух взаимно перпендикулярных направлений.
Рис. 2. Термоструктурная задача. Распределение поля температур (а, К) и поля напряжений фон Мизеса (б, Па); распределение температуры в плоскости контакта вдоль направления движения (в), перпендикулярно направлению движения (г) и перпендикулярно плоскости контакта (д); распределение напряжения фон Мизеса в плоскости контакта вдоль направления движения (е). Момент времени і = 0,1 с
3. Решатели ANSYS Mechanical APDL
При решении термоупругих задач необходимо учитывать взаимное влияние температурного поля и напряженно-деформированного состояния материала. При этом модифицируется уравнение баланса энергии (или энтропии). Кроме того, в формуле для связи напряжений и деформаций добавляется слагаемое, описывающее тепловое расширение. В результате после дискретизации появляется связь пространственных степеней свободы с температурными. Существует несколько методов учета таких связей.
Сильная связь (strong coupling в терминологии ANSYS, также называемая иногда матричной или полной связью) означает учет взаимодействия через общесистемную матрицу, когда в каждом уравнении присутствуют как температурные, так и структурные переменные.
При слабой связи (weak coupling, связь через нагрузки) учет взаимосвязей производится путем добавления слагаемых в правую часть системы. При этом каждый элемент правой части зависит от переменных обоих типов, но их значения берутся с предыдущей итерации, что для сложных термоупругих задач может приводить к проблемам со сходимостью. С другой стороны, матрица задачи со слабой связью является симметричной, что облегчает
решение системы и приводит к значительному снижению времени расчета.
В результате дискретизации задачи на основе метода конечных элементов получается нелинейная система уравнений вида [7]:
[К]{п} = {F “},
где {и} — вектор степеней свободы (неизвестных), [К] — матрица коэффициентов, в общем случае зависящих от {u}, {i7“} — вектор нагрузок.
Для поиска решения полученной системы нелинейных уравнений в пакете применяется метод Ньютона-Рафсона. Базовый метод представляет собой итеративную процедуру:
[К?]{Ащ} = {Fa} - {Fn, {щ+i} = {М + {ДМ,
где индекс i определяет номер итерации расчета равновесного значения (equilibrium iteration в терминологии ANSYS), [Kf] — матрица Якоби (касательная матрица), составленная из производных от элементов [К], {FJlT'} — вектор возвращающих нагрузок (внутренние нагрузки на элементы). Коэффициенты [Кгт] и {F”r} вычисляются при значениях степеней свободы, взятых с текущей итерации {щ}.
Сходимость процесса определяется но норме вектора невязок {R} = {i7“} — {F¡ir} и вектора изменения степеней свободы {Ли*} (команда CNVTOL). Кроме того может быть ограничено количество итераций расчета равновесного значения (команда NEQIT).
При расчете равновесного значения на каждой итерации требуется решить линейную систему уравнений. Так как количество неизвестных определяется количеством степеней свободы задачи, размерность системы достаточно велика. Успешно решать такие системы помогает тот факт, что возникающие матрицы являются сильно разреженными (структура матрицы определяется связями узлов в конечных элементах). Для решения таких систем применяются хорошо разработанные методы вычислительной линейной алгебры. На них основаны различные решатели, присутствующие в любом инженерном вычислительном пакете.
Для решения полученной системы в пакете применяется несколько методов. Рассмотрим их последовательно.
Прямой (точный) метод (sparse direct solver) основан на LU-разложении матрицы. Метод активируется командой EQSLV, SPARSE (настройка по умолчанию). Имеется версия решателя для систем с распределенной памятью — DSPARSE. Максимальное ускорение расчета достигается, когда разделенная на узлы задача полностью помещается в оперативную память.
Помимо прямого метода в пакете доступен ряд итерационных методов. Они, как правило, требуют меньшего объема памяти и вычислительного времени, лучше распараллеливаются, но требуют более тщательной настройки. В частности, для плохо обусловленных матриц итерационный метод может сильно замедлиться, вообще не сойтись или даже выдать неверное решение (зависит от задачи, конкретного метода и настроек решателя).
В основном это методы, основанные на методе сопряженных градиентов с различными предобуславливателями. Решатель JCG использует предобуславливатель Якоби (диагональная часть матрицы [К]). Активируется командой EQSLV, JCG.
Решатель ICCG строит предобуславливатель на основе неполного разложения Холецко-го и может работать с несимметричными матрицами.
Решатель PCG работает только с вещественными симметрическими матрицами, но содержит очень эффективный алгоритм предобуславливания. При этом достигается максимальная скорость вычислений и возможность работы с плохо обусловленными матрицами. Используемый объем оперативной памяти примерно в 2 раза больше, чем для JCG.
Распределенные версии решателей — DPCG и DJCG, пригодны для запуска на системах с распределенной памятью. Математические формулировки при этом не изменяются, добавляется межузловой обмен данными и параллельное построение самих матриц.
Решатель AMG основан на алгебраическом многосеточном методе и является одним из самых эффективных для плохо обусловленных матриц. Решатель более требователен к оперативной памяти, чем PCG.
4. Сравнение эффективности решателей
Рассматривались следующие решатели: SPARSE, JCG, AMG, ICCG, PCG.
4.1. Термоструктурная задача
Один узел кластера состоит из 2-х процессоров, содержащих 4 ядра. SMP-тесты проводились на одном узле для разного числа ядер (от 1 до 8). MPI-расчеты (версия HP-MPI) запускались на разном числе узлов.
Для термоструктурной задачи с сильной связью, в силу несимметричности матрицы, доступны только решатели JCG и SPARSE, при этом поскольку итерационный метод JCG в этом случае не поддерживает распараллеливание с распределенной памятью, то проводились только SMP-расчеты. В результате было получено, что итерационый метод практически не ускоряется. Прямой метод SPARSE ускоряется, но не более чем в 2 раза.
Термоструктурная задача со слабой связью распараллеливается лучше. Однако использование более 5 ядер на узле при любом решателе не дает прироста производительности, скорее всего, из-за интенсивной работы решателя с памятью (количество неизвестных в каждом уравнении довольно велико) и из-за перестройки матрицы после каждой итерации. Для SMP эта операция выполняется последовательно, поэтому прироста производительности в этом случае практически нет. Наиболее эффективным оказывается распараллеливание на 2 узла по 4-5 ядер, при этом большее ускорение показывает решатель JCG.
Решатель SPARSE показывает ускорение на уровне 2,5 при использовании 6 ядер и больше на двух узлах (рис. 3 (в)).
На рис. 3 показаны зависимости ускорения от количества узлов и суммарного числа ядер для наиболее эффективных решателей.
В табл. 1 указаны времена расчетов термоструктурной задачи для некоторых решателей, а также используемая ими память. Видно, что для малого числа ядер метод PCG считает лучше, но с увеличением количества ядер наиболее быстрым решателем становится JCG. Отметим, что метод JCG использует значительно меньше оперативной памяти, по
Суммарное число ядер (а) Суммарное число ядер (б) Суммарное число ядер (в)
Рис. 3. Термоструктурная задача: зависимость ускорения от суммарного числа ядер относительно расчета на одном ядре tl. Слабая связь, MPI. Решатели: JCG, tl = 8, 35 ч (а); PCG, tl = 5,16 ч (б); SPARSE, tl = 7, 9 ч (в)
сравнению с другими решателями, а в целом при использовании более 8-ми ядер используемая память на ядро медленно уменьшается.
Таблица 1
Время расчета и размер используемой памяти для термоструктурной задачи для различных решателей (со слабой связью)
Метод Время (1 ядро) ч Лучшее время, ч Размер (1x1), МБ Размер на 1 ядро (1x8), МБ
JCG 8,35 1,16 (3x4) 83,6 26,6
PCG 5,16 1,66 (3x3) 107 67,9
SPARSE 7,9 3,23 (2x5) 754 350
4.2. Тепловая задача
Тепловая задача имеет значительно более низкую вычислительную сложность по сравнению с термоструктурной, что приводит к значительному уменьшению времени расчета, например, в нашем случае времена расчетов различались на несколько порядков. Тепловая задача распараллеливается лучше термоструктурной. Ее распараллеливание ограничивается только ее малым размером (см., например, рис. 4 (в, г), где справа изображен график ускорения для задачи с количеством элементов в 8 раз большим, чем для задачи слева).
В табл. 2 показаны времена расчетов тепловой задачи для некоторых решателей, а также используемая ими память. Наиболее эффективным и по времени расчета и по используемой
Рис. 4. Тепловая задача: зависимость ускорения от суммарного числа ядер относительно расчета на одном ядре tl. MPI. Решатели: JCG, tl = 207 с (а); PCG, tl = 367 с (б); SPARSE, tl = 251 ч (в); SPARSE, количество элементов увеличенно в 8 раз (г)
памяти оказался метод JCG. Метод PCG показал плохое распараллеливание, но при этом экономичное использование памяти. Метод SPARSE распараллеливает задачу лучше, но использует на порядок больше памяти, чем другие решатели.
Таблица 2
Время расчета и размер используемой памяти для тепловой задачи для различных решателей
Метод Время (1 ядро), с Лучшее время, с Размер (1x1), МБ Размер на 1 ядро (1x8), МБ
JCG 207 77 (1x6) 15,7 10,0
PCG 367 185 (1x7) 19,5 12,9
SPARSE 251 102 (2x4) 251 168
Метод PCG с SMP показал низкое ускорение (до 1,4 раза с максимумом на 4 ядрах). С MPI метод JCG показывает ускорение до 2,7 для конфигурации 1x6 (рис. 4 (a)), a PCG — до 2,0 для конфигурации 1x7 (рис. 4 (б)). Метод SPARSE показал максимальное ускорение 2,5 для конфигурации с двумя узлами, однако, для задачи с большим количеством элементов, как было отмечено выше, ускорение возрастает (рис. 13).
4.3. Структурная задача
Решение структурной задачи возможно только с использованием прямого метода SPARSE. Из-за большого количества контактных и структурных элементов решатель требует большого объема памяти (3,3 ГБ для одного узла и 637 МБ на ядро для конфигурации 1x8). На рис. 5 представлена зависимость ускорения от суммарного количества ядер. Падение ускорения на одном узле, содержащем 6 и более ядер, связано с тем, что задача не помещается полностью в оперативную память, и система подключает более медленную память подкачки. Для двух и более узлов количество доступной памяти выросло, что и сказалось на росте ускорения. Отметим хорошее ускорение (до 5,7 раз) при использовании 3 и 4 узлов. При времени выполнения задачи 43 мин. на одном ядре наилучшее время составило 7,6 мин. для конфигурации 4x4.
Рис. 5. Структурная задача: зависимость ускорения от суммарного числа ядер относительно расчета на одном ядре (0,72 ч) для решателя SPARSE / MPI
4.4. Расчет на GPU
В новой версии ANSYS Multiphysics 13.0 добавлена возможность использования в процессе моделирования дополнительно к центральному микропроцессору ресурсы графических процессоров NVidia. В этой версии поддерживается только использование одного графического ускорителя в системе с общей памятью для решателей SPARSE, PCG и JCG. В качестве тестовой конфигурации была взята двухпроцессорная рабочая станция Fujitsu Siemens Computers V840 (процессоры Opteron 2214 Dual-Core, 2.2 GHz, объем оперативной памяти 8 GB, PC2-5300 FB-DIMM ECC) с графическим ускорителем NVIDIA Tesla C1060.
Решалась термоструктурная задача. На рис. 6 представлена зависимость ускорения от количества ядер для трех различных решателей. Использование графического ускорителя дает наибольшую эффективность относительно расчета на CPU для решателя SPARSE. Наименьшее время для расчета демонстрирует решатель PCG, хотя и GPU ускоряет его лишь на 20 - 36% для различного числа ядер. Это объясняется тем, что время выполнения параллельных вычислений (CPU+GPU) такого же порядка, что и время выполнения последовательных вычислений (только CPU).
Рис. 6. Зависимость ускорения от числа ядер относительно расчета на одном ядре (3,6 ч) для решателя 8РАКЭЕ(СРи)
5. Заключение
Была исследована эффективность различных решателей ANSYS Multiphysics для трех типовых задач, связанных с моделированием процесса линейной сварки трением. Было показано, что наиболее эффективными для тепловой и термоструктурной задач при слабой связи степеней свободы оказываются решатели JCG и PCG, а для структурной задачи наибольшую эффективность показал решатель SPARSE. Расчеты на GPU показали прирост ускорения по сравнению с CPU.
Работа выполнена в рамках проекта «:Создание технологий и промышленного производства узлов и лопаток ГТД с облегченными высокопрочными конструкциями для авиационных двигателей новых поколений'» (шифр 2010-218-01-133) в рамках реализации постановления Же 218 от, 9.04-2010 г. <. О мерах государственной поддержки развития кооперации российских высших учебных заведений и организаций, реализующих комплексные проекты по созданию высокотехнологичного производства».
Статья рекомендована к публикации программным комитетом международной научной конференции «:Параллельные вычислительные технологии 2011».
Литература
1. Билль, В.И. Сварка металлов трением / В.И. Билль. - М.: Машиностроение, 1970.
2. Vairis, A. On the extrusion stage of linear friction welding of Ti6Al4V / A. Vairis, M. Frost
3. Ландау, Л.Д. Теоретическая физика в 10 томах. Т. VII. Теория упругости / Л.Д. Ландау,
4. Jeongho, A. Stewart Dynamic frictionless contact in linear viscoelasticity / A. Jeongho,
5. Basic Analysis Guide // Release 12.1, November 2009, ANSYS Inc.
6. ГОСТ 19807-91. Титан и сплавы титановые деформируемые. Марки. - Взамен ГОСТ
7. Theory Reference for the Mechanical APDL and Mechanical Applications // Release 12.1,
November 2009, ANSYS Inc.
Бикмеев Александр Тимерзянович, кандидат физико-математических наук, доцент, кафедра ВВТиС, Уфимский государственный авиационный технический университет, bikmeyev@gmail. com.
Газизов Рафаил Кавыевич, доктор физико-математических наук, профессор, кафедра ВВТиС, Уфимский государственный авиационный технический университет, [email protected].
Иванов Владимир Юрьевич, кандидат технических наук, доцент, заместитель генерального директора по инновациям и перспективным программам, ОАО «УМПО>, [email protected].
Касаткин Алексей Александрович, кафедра ВВТиС, Уфимский государственный авиационный технический университет, [email protected].
Латыш Владимир Валентинович, кандидат технических наук, доцент, ГУП Научное конструкторско-технологическое бюро «Искра>, [email protected].
Лукащук Станислав Юрьевич, кандидат физико-математических наук, доцент, кафедра ВВТиС, Уфимский государственный авиационный технический университет, [email protected].
Насибуллаев Ильдар Шамилевич, кандидат физико-математических наук, кафедра ВВТиС, Уфимский государственный авиационный технический университет, sp. [email protected].
Юлмухаметов Константин Раисович, Уфимский государственный авиационный технический университет, [email protected].
Ямилева Альфия Маратовна, кафедра ВВТиС, Уфимский государственный авиационный технический университет, [email protected].
Поступила в редакцию 9 марта 2011 г.