Научная статья на тему 'МНОГОПАРАМЕТРИЧЕСКАЯ ГЛОБАЛЬНАЯ ОПТИМИЗАЦИЯ ПРИ ПРОЕКТИРОВАНИИ ПРОМЫШЛЕННОГО ОБОРУДОВАНИЯ'

МНОГОПАРАМЕТРИЧЕСКАЯ ГЛОБАЛЬНАЯ ОПТИМИЗАЦИЯ ПРИ ПРОЕКТИРОВАНИИ ПРОМЫШЛЕННОГО ОБОРУДОВАНИЯ Текст научной статьи по специальности «Математика»

CC BY
0
0
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
проектирование промышленного оборудования / суррогатное моделирование / многопараметрическая глобальная оптимизация / многопараметрические исследования / industrial equipment design / surrogate modelling / multi-parameter global optimization / multi-parameter research

Аннотация научной статьи по математике, автор научной работы — Деулин А. А., Куликов М. С., Фомичев Д. В., Шикуло А. А.

Развитие имитационного моделирования в области проектирования промышленного оборудования привело к резкому росту сложности применяемых компьютерных моделей и повышении требований к ним, для обеспечения заданных характеристик промышленного оборудования необходимо применять численные методы глобальной оптимизации, способные работать с трудновычислимыми целевыми функциями, заданными в виде «черного ящика». В статье рассматриваются основные особенности, присущие задачам, связанным с глобальной оптимизацией промышленного оборудования и модификации алгоритмов, которые могут быть применены для решения данных задач. Приводятся результаты сравнительного тестирования применения модифицированных алгоритмов.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Деулин А. А., Куликов М. С., Фомичев Д. В., Шикуло А. А.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

MULTI-PARAMETER GLOBAL OPTIMIZATION IN INDUSTRIAL EQUIPMENT DESIGN

The development of simulation modelling in the field of industrial equipment design has led to a sharp increase in the complexity of applied computer models and increased requirements to them, in order to ensure the specified characteristics of industrial equipment it is necessary to apply numerical methods of global optimization, capable of working with hard-tocompute target functions specified in the form of a "black box". The article discusses the main traits inherent in the tasks related to the global optimization of industrial equipment and modifications of algorithms that can be applied to solve these problems. The results of comparative testing of modified algorithms application are given.

Текст научной работы на тему «МНОГОПАРАМЕТРИЧЕСКАЯ ГЛОБАЛЬНАЯ ОПТИМИЗАЦИЯ ПРИ ПРОЕКТИРОВАНИИ ПРОМЫШЛЕННОГО ОБОРУДОВАНИЯ»

КОМПЬЮТЕРНОЕ МОДЕЛИРОВАНИЕ И АВТОМАТИЗАЦИЯ ПРОЕКТИРОВАНИЯ / COMPUTER

MODELING AND DESIGN AUTOMATION

DOI: https://doi.org/10.60797/IRJ.2025.151.35

МНОГОПАРАМЕТРИЧЕСКАЯ ГЛОБАЛЬНАЯ ОПТИМИЗАЦИЯ ПРИ ПРОЕКТИРОВАНИИ

ПРОМЫШЛЕННОГО ОБОРУДОВАНИЯ

Научная статья

Деулин А.А.1, Куликов М.С.2, *, Фомичев Д.В.3, Шикуло А.А.4

1 ORCID : 0000-0002-8999-7315;

2 ORCID : 0000-0002-4777-771X;

3 ORCID : 0000-0003-2441-8228;

4 ORCID : 0009-0006-4540-0923;

1 Всероссийский научно-исследовательский институт экспериментальной физики - Российский федеральный ядерный

центр, Нижний Новгород, Российская Федерация 2' 4 Нижегородский государственный университет им. Н.И. Лобачевского, Нижний Новгород, Российская Федерация

3 Университет «Сириус», Сириус, Российская Федерация

* Корреспондирующий автор (vokil[at]mail.ru)

Аннотация

Развитие имитационного моделирования в области проектирования промышленного оборудования привело к резкому росту сложности применяемых компьютерных моделей и повышении требований к ним, для обеспечения заданных характеристик промышленного оборудования необходимо применять численные методы глобальной оптимизации, способные работать с трудновычислимыми целевыми функциями, заданными в виде «черного ящика». В статье рассматриваются основные особенности, присущие задачам, связанным с глобальной оптимизацией промышленного оборудования и модификации алгоритмов, которые могут быть применены для решения данных задач. Приводятся результаты сравнительного тестирования применения модифицированных алгоритмов.

Ключевые слова: проектирование промышленного оборудования, суррогатное моделирование, многопараметрическая глобальная оптимизация, многопараметрические исследования.

MULTI-PARAMETER GLOBAL OPTIMIZATION IN INDUSTRIAL EQUIPMENT DESIGN

Research article

Deulin A.A.1, Kulikov M.S.2' *, Fomichev D.V.3, Shikulo A.A.4

1 ORCID : 0000-0002-8999-7315;

2 ORCID : 0000-0002-4777-771X;

3 ORCID : 0000-0003-2441-8228;

4 ORCID : 0009-0006-4540-0923;

1 The Russian Federal Nuclear Center All-Russian Scientic Research Institute of Experimental Physics, Nizhny Novgorod,

Russian Federation

2' 4 National Research Lobachevsky State University of Nizhny Novgorod, Nizhny Novgorod, Russian Federation 3 Sirius University of Science and Technology, Sirius, Russian Federation

* Corresponding author (vokil[at]mail.ru)

Abstract

The development of simulation modelling in the field of industrial equipment design has led to a sharp increase in the complexity of applied computer models and increased requirements to them, in order to ensure the specified characteristics of industrial equipment it is necessary to apply numerical methods of global optimization, capable of working with hard-to-compute target functions specified in the form of a "black box". The article discusses the main traits inherent in the tasks related to the global optimization of industrial equipment and modifications of algorithms that can be applied to solve these problems. The results of comparative testing of modified algorithms application are given.

Keywords: industrial equipment design, surrogate modelling, multi-parameter global optimization, multi-parameter research.

Введение

Высокоточное моделирование в инженерном проектировании значительно снизило потребность в естественных испытаниях для проверки достигнутых характеристик проектируемого оборудования. С другой стороны, развитие инструментов проектирования привело к лавинообразному росту сложности требований к проектируемым моделям оборудования за счет увеличения числа оптимизируемых параметров и целевых характеристик. Узким местом задачи подбора параметров модели является сложность вычисления целевых характеристик по заданному набору параметров, что снижает возможность применения классических алгоритмов оптимизации, нацеленных на увеличение скорости работы алгоритмов и точности найденного решения, а не на сокращение количества проведенных испытаний при помощи вычислительной модели. В настоящее время для таких задач развитие получили многоуровневые алгоритмы оптимизации, которые на разных фазах поиска эксплуатируют модели разные по точности и по трудоемкости вычисления характеристик моделируемого оборудования - «грубые» модели позволяют сканировать пространство

поиска с целью выявления перспективных областей и вариантов, а «качественные» модели используются для верификации и уточнения найденных решений. Научной проблемой, рассматриваемой в данной работе, является разработка многоуровневых методов оптимизации и схем их практической реализации для эффективного решения задач оптимизации проектных решений при проектировании высокотехнологичного промышленного оборудования.

В работе рассматриваются традиционные подходы к многопараметрической оптимизации применительно к задачам проектирования промышленного оборудования и делается упор на рассмотрении алгоритмов основанных на применении суррогатного моделирования, позволяющего сократить количество проведенных испытаний за счет частичного переноса исследования целевых характеристик от точной, но «медленной» вычислительной модели на «быструю» суррогатную модель, обеспечивающую выдачу значений с «погрешностью» неизвестной величины, но в то же время характеризующих динамику изменения целевых значений. Приводятся подходы, использующие предсказания от «коллектива» суррогатных моделей для выделения областей с наибольшим уровнем неопределенности, потенциально содержащих оптимальные решения.

Результаты получены при финансовой поддержке исследования, реализуемого в рамках государственной программы федеральной территории «Сириус» «Научно-технологическое развитие федеральной территории «Сириус» (Соглашение № 18-03 от 10.09.2024) в соответствии с материалами работы «Алгоритмы многопараметрической глобальной оптимизации на основе суррогатных моделей для решения задач оптимизации проектных решений при проектировании промышленного оборудования».

Основные подходы к решению задачи глобальной оптимизации в сфере промышленного производства

Задача поиска наилучшего решения в зависимости от набора параметров широко распространена в сфере промышленного производства. Развитие средства имитационного моделирования, а также сквозных технологий создания суперкомпьютерных двойников и инженерного анализа позволяет в зависимости от того или иного сочетания исходных параметров получать оценки количественных целевых характеристик изделия. Формально задача подбора параметров ставится в терминах глобальной оптимизации, в которой требуется найти такое сочетание параметров, которое обеспечивает оптимум обобщенного критерия - представляемого в виде той или иной формы свёртки целевых характеристик. В результате такой формализации никакая информация о внутренней природе имитационной модели не раскрывается и её можно трактовать как «черный ящик» (некоторой вычислительной процедуры на вход которого подаются параметры, а на выходе наблюдается значение целевой функции, которое может быть недифференцируемым и сложными с вычислительной точки зрения) [1], [2], что позволяет для ее исследования использовать весь арсенал методов глобальной оптимизации, включая разнообразные переборные схемы (методы ветвей и границ методы отсекающих плоскостей и т.д. [3], [4]), локальный поиск (методы покоординатного спуска [5]), стохастические стратегии (метод Монте-Карло, метод имитации отжига [6]), разнообразные эвристики (генетические алгоритмы [7], алгоритмы роевого интеллекта [8]), методы основанные на поиске решений на суррогатных моделях (например, байесовская оптимизация [9]) и т.д. Эти подходы могут как использоваться самостоятельно, так могут и комбинироваться в разнообразные гибридные схемы.

Сложностью при разработке алгоритмов для проектирования промышленного оборудования является вычислительно-трудоемкость процедуры расчета функции цели и существенное число оптимизируемых параметров проектируемого объекта (например, всего одна итерация для расчета моделирования бокового порывистого ветра действующего на находящийся в воздухе объект занимает более 8300 процессорных часов (4 часа реального времени на 2016 ядрах) [10]), причем функция цели зачастую имеет сложный характер, обусловленный наличием неявных зависимостей между различными параметрами. Кроме того, немаловажным фактором при разработке алгоритма является требования к устойчивости получаемого оптимального значения (при «небольших» изменениях параметров не должно происходить «резкого» изменения соответствующего решения). Требования к устойчивости получаемого оптимального значения возникают из необходимости учета возможных погрешностей, которые могут быть внесены в ходе изготовления оборудования и изменений в характеристиках оборудования, связанных с естественным износом, который возникает в результате высокоинтенсивных нагрузок, что ведет к потере изначально заданных характеристик. Также при оптимизации промышленного оборудования может представлять сложность наличие недопустимых сочетаний параметров (сочетания параметров для которых не может быть получено значение целевой функции при помощи точной модели) которые не могут быть заданны изначально, а могут быть определены только по ходу работы алгоритма.

При разработке алгоритмов оптимизации, учитывающих представленные особенности необходимо:

- применять техники, которые ограничивают количество замеров значений целевой функции;

- применять техники редуцирования пространства (например, при помощи методов редукции таких как РСА [11], [12]), или методов, использующих кривые, заполняющие пространство [13], или методы редукции, использующие нейросетевые подходы, такие как автоэнкодеры [14];

- применять техники, обеспечивающие снижение количества трудоемких замеров целевой функции путем использования суррогатных моделей (например, Кригинг [15], RBF [16], [17], и т.д.).

Постановка задачи многопараметрической глобальной оптимизация при проектировании промышленного оборудования

Задача оптимизации для промышленного оборудования может быть поставлена как задача математического программирования в следующем виде: имеется набор из п параметров ^ _ ^ Х2 , необходимо подобрать

такие значения параметров , что:

/ (X*) = тт{/ (X), Хе Д 9] (X) <0, !<]< к},

где D есть область возможных значений вектора параметров % , а функции gj представляют параметры объекта, которые должны быть ограничены в искомом решении. Причем функции gj могут быть заданы как в явном виде, так и вычисляться в процессе расчета f(X) (для учета точек значения в которых не могут быть вычислены при помощи точной модели).

Алгоритмы многопараметрической глобальной оптимизации на основе суррогатных моделей

Можно выделить два основных подхода к решению задачи глобальной оптимизации с использованием суррогатного моделирования: многопараметрическая глобальная оптимизация с фиксированным множеством точек и адаптивная многопараметрическая глобальная оптимизация. Оба этих подхода могут применяться при исследовании промышленных моделей.

Подход с фиксированным множеством точек позволяет получить суррогатную модель пригодную как для поиска глобального оптимума, так и для других многопараметрических исследований на суррогатной модели, кроме того, упрощается переиспользование данных для повторных поисков и в целях машинного обучения при исследовании семейств моделей. При этом для такого подхода количество замеров будет больше, чем при использовании адаптивного итерационного подхода, нацеленного на уточнение только областей, потенциально содержащих глобальный оптимум, а не на построении суррогатной модели обладающей заданной точностью на всей области определения параметров. Алгоритм многопараметрической глобальной оптимизации на основе суррогатных моделей с фиксированным множеством точек работает с заданным заранее множеством точек или же с множеством точек заданной мощности, замеры в которых алгоритм может «заказать» однократно. Входными параметрами алгоритма являются:

- заранее сформированное множество точек пространства параметров и значения целевой функции в этих точках

Р = {(Xi,Zi)},f(Xi) = Zi , где j = 1..ш , либ° количество точек т ;

- функции ограничения gj(X) < 0,1 < j < k ;

- коэффициент масштаба (j s Rn нормальных распределений N(Xi crfii =1 п которые характеризуют распределение вероятностей отклонения от конкретного % в силу возможных погрешностей при изготовлении оборудования или в следствии естественного износа;

- параметр г , определяющий количество точек, которые будут использованы для проверки потенциально оптимальных точек на условия связанные с возможным отклонением параметров при изготовлении оборудования или в следствии естественного износа. Проверочные вычисления будут производится на построенном суррогате и, хотя и могут быть достаточно трудоемкими, однако время вычислений будет несравнимо с временем вычисления значений функции в точке на точной модели. Значение параметра г может быть выбрано в зависимости от характера изменения функции.

- признак возможности провести дополнительный замер при помощи точной модели в найденной точке

Проверочные вычисления будут производится на построенном суррогате и, хотя и могут быть достаточно

трудоемкими, однако время вычислений будет несравнимо с временем вычисления значений функции в точке на точной модели. Количество точек может быть выбрано в зависимости от характера изменения функции, учитывая возможности провести дополнительный замер при помощи точной модели в найденной точке.

Алгоритм многопараметрической глобальной оптимизации на основе суррогатных моделей с фиксированным множеством точек можно представить в виде последовательности следующих шагов:

1. загружается изначальное заданное множество точек р = {(Xj, Zi)} ,f(Xi) = Zi где i — \ m , либо же если изначальное множество точек не задано, то в результате одностадийной процедуры отбора точек формируется множество р \р\ = щ ;

2. проводится первоначальный отбор точек, из начального множества и исключаются точки с недопустимыми

значениями. Формируется множество отобранных точек р' с Р . Для каждой недопустимой точки X' добавляется

1 \/у |у. _ у'| Ч/т' I ' i I ' , где и - входной параметр масштаба;

0, иначе

3. строится суррогатная модель f'(X) на множестве точек р/ . Для построения суррогатной модели может

быть использован любой из существующих подходов, например, RBF, IDW, редукция Гауссовского процесса с различными ядрами, нейросетевой подход и т.д.;

4. определяется функция т(Х) = {Yi Yr} , где Yi £ D , которая задает для каждой точки множество проверочных точек, распределенных в соответствии с законами нормального распределения N(Xi а{) ';

5. решается задача нахождения глобального минимума , для функции (р(Х) = 2уег(Х) f'00 . Поскольку

все вычисления проводятся с использованием суррогатной модели на метод оптимизации не накладываются такие строгие требования по количеству замеров исследуемой функции;

6. найденная точка принимается в качестве искомого минимума. В случае наличия возможности провести дополнительный замер f(X*) , найденная точка оценивается при помощи точной модели и если точка

допустимая, то среди всего множества точек р' у {X*,f(X*)} находится точка соответствующая минимальному

значению f(X) .

Представленный выше алгоритм может быть модифицирован для автоматического выбора наилучшего способа построения суррогатной модели. Для этого Шаг 3 алгоритма заменяется следующую процедуру:

ограничение вида д(Х) =

- часть точек (5%-10% от |р'| ) принимается в качестве множества тестовых точек j и исключается из множества р/ , задавая таким образом множество р" р>> и Т = Р' '

- строится множество суррогатных моделей f!(x), i — 1,..., I , где | - количество рассматриваемых

методов суррогатного моделирования, каждый индекс соответствует своему методу;

- решается задача нахождения индекса j* соответствующего методу, который дает наименьшую суммарную

ошибку ei(x) = ZXzT\f(X)-f{(X)\ на тестовом множестве т, ? такое, что er(x) = raiai=L.lei(x) . Метод суррогатного моделирования, соответствующий найденному решению, принимается в качестве основного и при помощи этого метода строится суррогатная модель f(x) на всем множестве р/ .

Для адаптивной многопараметрической глобальной оптимизации осуществляется одностадийный отбор точек. Суррогатная модель строится на равномерно распределенном множестве точек, что в среднем должно обеспечить одинаковую точность на всем множестве допустимых значений ß . Такое построение суррогатной модели имеет свои преимущества, однако в целях сокращения количества замеров выгоднее сосредоточить наибольшее количество замеров в местах потенциального минимума, именно такой подход обеспечивает адаптивный алгоритм многопараметрической оптимизации. Входными параметрами алгоритма являются:

- количество точек т которые могут быть заказаны алгоритмом;

- ограничения вида ^.(х) < 0,1 < i < к;

- коэффициент масштаба & нормальных распределений <7j)i =1 п , которые характеризуют распределение вероятностей отклонения от конкретного % в силу возможных погрешностей при изготовлении оборудования или в следствии естественного износа;

- параметр г определяющий количество точек, которые будут использованы для проверки потенциально оптимальных точек на условия связанные с возможным отклонением параметров при изготовлении оборудования или в следствии естественного износа. Проверочные вычисления будут производится на построенном суррогате и, хотя и могут быть достаточно трудоемкими, однако время вычислений будет несравнимо с временем вычисления значений функции в точке на точной модели. Значение параметра г может быть выбрано в зависимости от характера изменения функции.

Основными шагами алгоритма являются:

1. формируется начальное множество равномерно распределенных точек, t = Г0.1 . m] >pt = {(XbZ,)},/^,) = Zi , где i - \ Л , в результате одностадийной процедуры отбора точек, описанной ранее;

2. определяется функция г(Х) = {Yj Yr} , где Yi £ D которая задает для каждой точки множество проверочных точек, распределенных в соответствии с законами нормального распределения N(Xj &i) ';

3. проводится первоначальный отбор точек, из начального множества и исключаются точки с недопустимыми значениями. Формируется множество отобранных точек Р'( С Pt . Для каждой недопустимой точки добавляется

ограничение вида а(Х) — \ ^^ ^ _ I — , где с входной параметр масштаба. Если t = т — I , то

[ 0, иначе

алгоритм переходит на Шаг 7, иначе на Шаг 4;

4. строится суррогатная модель f^{X) на множестве точек р'^ . Для построения суррогатной модели может

быть использован любой подход, который позволяет оценить не только значение в точке, но и меру неопределенности данного значения. В качестве такого подхода может быть выбрана редукция Гауссовского процесса с различными ядрами (например, RBF, Matern, RationalQuadratic и т.д,);

5. решается задача нахождения глобального максимума х^ , для функции полезности ^(Х) одним из методов,

например из п.1 (различные возможные функции полезности \jf(X) будут рассмотрены далее) на суррогатной модели;

6. найденная точка передается для замера при помощи точной модели и формируется pf+1 — P't U {(Х^ /(Х^)} ,

после чего индекс j увеличивается на 1 и алгоритм переходит на Шаг 3;

7. на множестве точек р' запускается процедура многопараметрической глобальной оптимизации на основе

т—1

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

суррогатных моделей с фиксированным множеством с учетом изначально заданных и сформированных ограничений с возможностью точного замера в найденной точке.

Существует различные функций полезности т]/(Х) , которые могут быть использованы в алгоритме. Рассмотрим

следующие функции полезности, модифицированные для учета особенностей промышленного оборудования:

- модифицированная функция ожидаемого улучшения (функция EI'(X)) [18]:

EI'(X) = Zrerm (ifmin -f'(Y)) Ф {fmin~j)(Y))+S(Y)<i> (/mi"s(/)(Y)))

(2)

где, - известный минимум, - стандартное отклонение модели в точке у , а ф и ф - функции

распределения и плотности вероятности стандартного нормального распределения соответственно. Функция ожидаемого улучшения стремится выбрать точки, где возможно улучшение по сравнению с уже найденным экстремумом. Формально она вычисляет математическое ожидание улучшения целевой функции на следующем шаге и выбирает ту точку, где это ожидание максимально;

- модифицированная обобщенная функция ожидаемого улучшения (имеет обобщенную форму (3)), которая позволяет задать параметр с , регулирующий исследовательскую и эксплуатационную стратегию, определяющий порядок рассматриваемого момента улучшения. Чем больше параметр с , тем выше приоритет у исследовательской стратегии;

СШ'(Х) = Иг) Е5=о (3)

где Т^(х) определяется рекурсивно для

Та(¥) = -иа~1(¥)ф(и(¥)) + {¿1- 1)7^2(7) (4)

/г/Л fm.in.~f {У)

где и(¥) = ну) .

Т0 = Ф(и(¥)), Тг = -ф(и(¥))

- модифицированная функция на основе производной функции моментов ожидаемого улучшения (5). Такой подход позволяет привязать к различным моментам ожидаемого улучшения веса, определяемые параметром 0 [18].

МСРСЕПХ) = Еуег(х) (ф (/т^(У)) ехр ((/т1-„ -/'(¥) - 1). +

(5)

где р(¥)=Г(¥)-з\¥)г) .

Представленный выше алгоритм может быть модифицирован для автоматического выбора наилучшего ядра Гауссовского процесса при построении суррогатной модели. Для этого в Шаге 4 алгоритма необходимо предусмотреть возможностью использовать сразу несколько различных суррогатных моделей и выбирать наиболее подходящую [19]. Применение нескольких суррогатных моделей может производится в соответствии со следующими сценариями:

- взвешенное лучшее - на каждой итерации выбирается одна модель, которая вернула точку с наилучшем показателем выбранной функции полезности, умноженного на текущий вес данной модели. Начальное значение весов равно 1. Веса моделей в итерации ^ при условии, что выбрана модель q+ обновляются следующим образом:

М )+0Л 4 = 4 (6)

- взвешенная комбинация - на каждой итерации выбирается точка с наилучшем показателем взвешенной линейной комбинации значений функций полезности для каждой суррогатной модели. Веса определяются нормализированным значением функции правдоподобия для каждой модели.

Проблема выбора начальных точек для многопараметрических задач

Для построения суррогатной модели при запуске алгоритма, когда еще нет никакой информации о поведении функции, необходимо задать множество точек пространства параметров. Одноэтапная выборка опирается на классическую конструкцию экспериментов и методы заполнения пространства. Идея классических экспериментов состоит в том, чтобы нивелировать влияние случайной ошибки на утверждение или отклонение гипотезы. К классическим методам относятся такие подходы, как методы полно-факторного анализа, Центрального композита, конструкции Бокса-Бенкена и Плакетта-Бурмана [20], алфавитного упорядочивания [21] и другие. Однако в условиях пространств большой размерности и трудоемкой процедуры оценки значения точной модели эти классические подходы становятся слишком трудоемкими и вместо них используются методы, обеспечивающие равномерное заполнение пространства параметров заданным количеством точек. К методам, обеспечивающим равномерное заполнения пространства, относятся такие методы как:

- последовательность низкой расходимости Соболя [22];

- последовательность низкой расходимости Халтона [23];

- последовательность, полученная при помощи латинского гиперкуба [24].

Вычислительный эксперимент

В качестве иллюстрации применения многопараметрической глобальной оптимизации на основе суррогатных моделей к проектированию промышленного оборудования рассмотрим задачу проектирования оборудования целевая функция которого описывается сложной функцией характерной особенностью которой является наличие «узкого ущелья» содержащего глобально-оптимальное решение и локального минимума расположенного в «широкой долине».

На рисунке 1 показано сравнение работы итерационного алгоритма, представленного в разделе 3 и алгоритма двойного отжига для первых 50 расчетов целевой функции. По оси у обозначен рекорд среднего значения окрестности среди точек, для которых был проведен расчет целевой функции. По оси х рассматривается количество данных точек. (рассматривается окрестность, так как для задачи проектирования промышленного оборудования значение целевой функции не должно сильно возрастать при смещении значений целевых параметров).

i - сумма El

\ - двойкой отжиг

\ 1

-\

О 10 20 30 10 50

Итерэцич

Рисунок 1 - Сравнение итерационного алгоритма и алгоритма двойного отжига DOI: https://doi.Org/10.60797/IRJ.2025.151.35.1

Из графика видно, что итерационный алгоритм быстро приблизился к малому значению в то время, как двойному отжигу не хватило такого малого количество допустимых расчетов целевой функции для достижения значимого результата (если строить график для большего количества итераций решение, найденное двойным отжигом, будет не хуже). Таким образом, итерационный алгоритм может работать с функциями, которые требуют большого количества ресурсов для расчёта значений.

Таким же образом сравним результаты работы адаптивного алгоритм с модифицированным критерием EI c результатами работы алгоритма байесовской оптимизации (SEGO). График зависимости найденного рекорда функции сравнения показан на рисунке 2.

О 10 го 30 40 so

операция

Рисунок 2 - Результаты сравнения работы адаптивного алгоритм с модифицированным критерием EI c SEGO

DOI: https://doi.org/10.60797/IRJ.2025.151.35.2

Из графика видно, что, как и SEGO итерационному алгоритму понадобилось небольшое количество обращений к целевой функции для того, чтобы прийти к некоему результату, но результат, найденный SEGO имеет большее среднее значение в окрестности, чем результат, найденный итерационным алгоритмом. Такой результат можно объяснить тем, что алгоритм SEGO в основном заказывал дополнительные точки в области «ущелья» в то время как адаптивный алгоритм с модифицированным критерием EI ушел в «долину», имеющую более плавный ландшафт, что обеспечило ему в конечном счете преимущество с учетом требования по обеспечению устойчивости получаемого оптимального значения. Распределение запрошенных точек для каждого из алгоритмов показано на рисунках 3, 4.

■2.0 -1.5 -1.0 -0.5 0.0 0.5 1.0 1.5 2.0

X

Рисунок 3 - Распределение точек итерационного алгоритма DOI: https://doi.Org/10.60797/IRJ.2025.151.35.3

■2.0 -1.5 -1.0 -0.5 0.0 0.5 1.0 1.5 2.0

х

Рисунок 4 - Распределение точек SEGO DOI: https://doi.Org/10.60797/IRJ.2025.151.35.4

Заключение

В работе рассмотрены алгоритмы поиска глобально-оптимального решения применительно к задачам проектирования промышленного оборудования. Для задач проектирования промышленного оборудования выделены особенности определяющие подходы, которые могут быть использованы при решении подобных задач. В рамках приведенных подходов рассмотрены одностадийный и адаптивный алгоритмы многопараметрической глобальной оптимизации использующие суррогатные модели для сокращения количества трудоемких вычислений на точной модели. Для представленных алгоритмов приведены результаты тестирования.

Финансирование

Результаты получены при финансовой поддержке исследования/проекта/работы, реализуемого в рамках государственной программы федеральной территории «Сириус» «Научно-технологическое развитие федеральной территории «Сириус» (Соглашение № 18-03 от 10.09.2024).

Благодарности

Авторы выражают благодарность АНОО ВО «Университет «Сириус».

Конфликт интересов

Не указан.

Рецензия

Кремлева Э.Ш., Казанский национальный исследовательский технический университет им. А.Н. Туполева - КАИ, Казань, Российская Федерация DOI: https://doi.Org/10.60797/IRJ.2025.151.35.5

Funding

This work was supported by the grant of the state program of the «Sirius» Federal Territory «Scientific and technological development of the «Sirius» Federal Territory» (Agreement № 18-03 date 10.09.2024).

Acknowledgement

The authors express their gratitude to "Sirius" University.

Conflict of Interest

None declared.

Review

Kremleva E.S., Kazan National Research Technical University named after A.N. Tupolev - KAI, Kazan, Russian Federation

DOI: https://doi.org/10.60797/IRJ.2025.151.35.5

Список литературы / References

1. Батищев Д.И. Методы оптимального проектирования / Д.И. Батищев. — Москва: Радио и связь, 1984. — 248 с.

2. Mockus J. A Set of Examples of Global and Discrete Optimization: Applications of Bayesian Heuristic Approach / J. Mockus. — Dordrecht: Kluwer Academic, 2000. — 321 p.

3. Horst R. Handbook of Global Optimization / R. Horst, P.M. Pardalos. — Dordrecht: Kluwer Academic Publishers, 1995. — 880 p.

4. Clausen J. Branch and bound algorithms-principles and examples / J. Clausen. — Copenhagen: Department of Computer Science, University of Copenhagen, 1999. — 30 p.

5. Wright S.J. Coordinate descent algorithms / S.J. Wright // Mathematical Programming. — 2015. — № 151. — P. 3-34.

6. Rutenbar R.A. Simulated annealing algorithms: an overview / R.A. Rutenbar // IEEE Circuits and Devices Magazine.

— 1989. — № 5. — P. 19-26.

7. Gen M. Genetic Algorithms & Engineering Optimization / M. Gen, R.C. Cheng. — New York: Wiley & Sons, 2000. — 512 p.

8. Wang D. Particle swarm optimization algorithm: an overview / D. Wang, D. Tan, L. Liu // Soft Computing. — 2017. — № 22. — P. 387-408.

9. Mockus J. Bayesian Approach to Global Optimization. / J. Mockus. — Dordrecht: Kluwer Academic Publishers, 1989.

— 270 p.

10. Ghoreyshi M. Simulation and Modeling of Rigid Aircraft Aerodynamic Responses to Arbitrary Gust Distributions / M. Ghoreyshi, I. Greisz, A. Jirasek [et al.] // Aerospace. — 2018. — № 5 (2). — P. 43. — DOI: 10.3390/aerospace5020043.

11. Jolliffe I.T. Principal component analysis: a review and recent developments / I.T. Jolliffe, J. Cadima // Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences. — 2016. — № 374. — DOI: 10.1098/rsta.2015.0202.

12. Scholkopf B. Nonlinear Component Analysis as a Kernel Eigenvalue Problem / B. Scholkopf, A. Smola, K. Müller // Neural Computation. — 1998. — № 10. — P. 1299-1319. — DOI: 10.1162/089976698300017467.

13. Salomon D. Curves That Fill Space / D. Salomon // Data Compression. — New York: Springer, 1998. — 428 p. — DOI: 10.1007/978-1-4757-2939-9_8.

14. Kingma D.P. An Introduction to Variational Autoencoders / D.P. Kingma, M. Welling // Foundations and Trends® in Machine Learning. — 2019. — Vol. 12. — № 4. — P. 307-392. — DOI: 10.1561/2200000056.

15. Seeger M. Gaussian processes for machine learning / M. Seeger // International journal of neural systems. — 2004. — № 14 (02). — P. 69-106. — DOI: 10.1142/S0129065704001899.

16. Hardy R. Multiquadric equations of topography and other irregular surfaces. / R. Hardy // Journal of Geophysical Research. — 1971. — № 76 (8). — P. 1905-1915.

17. Franke R. Scattered Data Interpolation: Tests of Some Methods / R. Franke // Mathematics of Computation. — 1982.

— № 38 (157). — P. 1905-1915.

18. Wang H. A new acquisition function for Bayesian optimization based on the moment-generating function / H. Wang, B.V. Stein, M. Emmerich [et al.]. — Banff: IEEE, 2017. — P. 507-512. — DOI: 10.1109/SMC.2017.8122656.

19. Roman I. An Experimental Study in Adaptive Kernel Selection for Bayesian Optimization / I. Roman, R. Santana, A. Mendiburu [et al.] // IEEE Access. — 2019. — № 7. — P. 184294-184302. — DOI: 10.1109/ACCESS.2019.2960498.

20. Myers R.H. Response Surface Methodology: Process and Product Optimization Using Designed Experiments / R.H. Myers, D.C. Montgomery // Technometrics. — 1996. — № 38 (3). — P. 285-286.

21. Mitchell T.J. An Algorithm for the Construction of "D-Optimal" Experimental Designs / T.J. Mitchell // Technometrics. — 2000. — № 42 (1). — P. 48-54. — DOI: 10.1080/00401706.2000.10485978.

22. Sobol' I.M. On the distribution of points in a cube and the approximate evaluation of integrals / I.M. Sobol' // USSR Computational Mathematics and Mathematical Physics. — 1967. — № 7 (4). — P. 86-112. — DOI: 10.1016/0041-5553(67)90144-9.

23. Halton J.H. On the efficiency of certain quasi-random sequences of points in evaluating multi-dimensional integrals / J.H. Halton // Numerische Mathematik. — 1960. — № 2. — P. 84-90. — DOI: 10.1007/BF01386213.

24. McKay M.D. A comparison of three methods for selecting values of input variables in the analysis of output from a computer code / M.D. McKay, R.J. Beckman, W.J. Conover // Technometrics. — 2000. — № 42 (1). — P. 55-61. — DOI: 10.1080/00401706.2000.10485979.

Список литературы на английском языке / References in English

1. Batischev D.I. Metody optimal'nogo praektiravanija [Methods of optimal design] / D.I. Batischev. — Moscow: Radio i svjaz', 1984. — 248 p. [in Russian]

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

2. Mockus J. A Set of Examples of Global and Discrete Optimization: Applications of Bayesian Heuristic Approach / J. Mockus. — Dordrecht: Kluwer Academic, 2000. — 321 p.

3. Horst R. Handbook of Global Optimization / R. Horst, P.M. Pardalos. — Dordrecht: Kluwer Academic Publishers, 1995. — 880 p.

4. Clausen J. Branch and bound algorithms-principles and examples / J. Clausen. — Copenhagen: Department of Computer Science, University of Copenhagen, 1999. — 30 p.

5. Wright S.J. Coordinate descent algorithms / S.J. Wright // Mathematical Programming. — 2015. — № 151. — P. 3-34.

6. Rutenbar R.A. Simulated annealing algorithms: an overview / R.A. Rutenbar // IEEE Circuits and Devices Magazine.

— 1989. — № 5. — P. 19-26.

7. Gen M. Genetic Algorithms & Engineering Optimization / M. Gen, R.C. Cheng. — New York: Wiley & Sons, 2000. — 512 p.

8. Wang D. Particle swarm optimization algorithm: an overview / D. Wang, D. Tan, L. Liu // Soft Computing. — 2017. — № 22. — P. 387-408.

9. Mockus J. Bayesian Approach to Global Optimization. / J. Mockus. — Dordrecht: Kluwer Academic Publishers, 1989.

— 270 p.

10. Ghoreyshi M. Simulation and Modeling of Rigid Aircraft Aerodynamic Responses to Arbitrary Gust Distributions / M. Ghoreyshi, I. Greisz, A. Jirasek [et al.] // Aerospace. — 2018. — № 5 (2). — P. 43. — DOI: 10.3390/aerospace5020043.

11. Jolliffe I.T. Principal component analysis: a review and recent developments / I.T. Jolliffe, J. Cadima // Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences. — 2016. — № 374. — DOI: 10.1098/rsta.2015.0202.

12. Scholkopf B. Nonlinear Component Analysis as a Kernel Eigenvalue Problem / B. Scholkopf, A. Smola, K. Müller // Neural Computation. — 1998. — № 10. — P. 1299-1319. — DOI: 10.1162/089976698300017467.

13. Salomon D. Curves That Fill Space / D. Salomon // Data Compression. — New York: Springer, 1998. — 428 p. — DOI: 10.1007/978-1-4757-2939-9_8.

14. Kingma D.P. An Introduction to Variational Autoencoders / D.P. Kingma, M. Welling // Foundations and Trends® in Machine Learning. — 2019. — Vol. 12. — № 4. — P. 307-392. — DOI: 10.1561/2200000056.

15. Seeger M. Gaussian processes for machine learning / M. Seeger // International journal of neural systems. — 2004. — № 14 (02). — P. 69-106. — DOI: 10.1142/S0129065704001899.

16. Hardy R. Multiquadric equations of topography and other irregular surfaces. / R. Hardy // Journal of Geophysical Research. — 1971. — № 76 (8). — P. 1905-1915.

17. Franke R. Scattered Data Interpolation: Tests of Some Methods / R. Franke // Mathematics of Computation. — 1982.

— № 38 (157). — P. 1905-1915.

18. Wang H. A new acquisition function for Bayesian optimization based on the moment-generating function / H. Wang, B.V. Stein, M. Emmerich [et al.]. — Banff: IEEE, 2017. — P. 507-512. — DOI: 10.1109/SMC.2017.8122656.

19. Roman I. An Experimental Study in Adaptive Kernel Selection for Bayesian Optimization / I. Roman, R. Santana, A. Mendiburu [et al.] // IEEE Access. — 2019. — № 7. — P. 184294-184302. — DOI: 10.1109/ACCESS.2019.2960498.

20. Myers R.H. Response Surface Methodology: Process and Product Optimization Using Designed Experiments / R.H. Myers, D.C. Montgomery // Technometrics. — 1996. — № 38 (3). — P. 285-286.

21. Mitchell T.J. An Algorithm for the Construction of "D-Optimal" Experimental Designs / T.J. Mitchell // Technometrics. — 2000. — № 42 (1). — P. 48-54. — DOI: 10.1080/00401706.2000.10485978.

22. Sobol' I.M. On the distribution of points in a cube and the approximate evaluation of integrals / I.M. Sobol' // USSR Computational Mathematics and Mathematical Physics. — 1967. — № 7 (4). — P. 86-112. — DOI: 10.1016/0041-5553(67)90144-9.

23. Halton J.H. On the efficiency of certain quasi-random sequences of points in evaluating multi-dimensional integrals / J.H. Halton // Numerische Mathematik. — 1960. — № 2. — P. 84-90. — DOI: 10.1007/BF01386213.

24. McKay M.D. A comparison of three methods for selecting values of input variables in the analysis of output from a computer code / M.D. McKay, R.J. Beckman, W.J. Conover // Technometrics. — 2000. — № 42 (1). — P. 55-61. — DOI: 10.1080/00401706.2000.10485979.

i Надоели баннеры? Вы всегда можете отключить рекламу.