И-
УДК 681.5.015.63-192
<022 * ПРИМЕНЕНИЕ МННГНМЕТПДНЫХ
ВЫЧИСЛИТЕЛЬНЫХ СХЕМ В НПТИМАЛЬННМ ПАРАМЕТРИЧЕСКНМ СИНТЕЗЕ ТЕХНИЧЕСКИХ УСТРНЙСТВ И СИСТЕМ1
Г.Б. Диго, Н.Б. Диго
Рассмотрены вычислительные аспекты реализации многометодной технологии применительно к проблемам оптимального параметрического синтеза. Описаны схемы поиска максимума алгоритмически заданных целевых функций при нелинейных функциях-ограничениях на параметры на основе неравномерных покрытий и случайного поиска.
Ключевые слова: многометодная технология, оптимальный параметрический синтез, случайный поиск, неравномерные покрытия, распараллеливание вычислений.
ВВЕДЕНИЕ
Проектирование технических систем с учетом случайных процессов изменения их параметров связано с необходимостью решения ряда сложных и трудоемких задач. К их числу относятся задачи параметрического синтеза и, в частности, оптимального выбора номинальных значений параметров проектируемых объектов [1]. Сложность их решения обусловлена вероятностным характером критерия оптимальности, дефицитом информации о случайных закономерностях процессов изменения параметров проектируемых систем и высокой вычислительной трудоемкостью поиска решения. Возникающие условия неопределенности не всегда позволяют обеспечить заданное качество функционирования системы, и может оказаться, что найденные оптимальные значения параметров, при которых достигается максимальная вероятность безотказной работы системы за определенный промежуток времени, не приводят к выполнению заданных ограничений на эту вероятность. Тогда для достижения требуемого качества функционирования системы приходится выбирать и ре-ализовывать стратегию управления ее параметрами, учитывая вероятностный характер критерия
1 Работа выполнена при частичной финансовой поддержке гранта ДВО РАН 09-1-П2-03 Программы № 14 Президиума РАН «Интеллектуальные информационные технологии, математическое моделирование, системный анализ и автоматизация».
оптимальности и дефицит информации о случайных закономерностях процессов изменения параметров проектируемых систем, нелинейность целевой функции и ограничений на нее.
В таких условиях одна из возможных стратегий может быть основана на методах поисковой оптимизации [2], но из-за отсутствия универсальных методов решения нелинейных задач оптимизации в условиях неопределенности выбор конкретного метода приходится связывать с особенностями решаемой задачи, поскольку метод, удачный для решения одной из них, может быть неудачным для решения других. Именно поэтому на практике подход, основанный на многометодной технологии [3, 4], часто оказывается наиболее эффективным. Основанные на таком подходе алгоритмы можно реализовывать в виде параллельных итерационных процессов с выбором лучшего приближения для продолжения оптимизации до достижения требуемой точности.
В статье рассматриваются вычислительные аспекты улучшения реализации многометодных вычислительных схем применительно к проблемам оптимального параметрического синтеза.
1. ПОСТАНОВКА И АНАЛИЗ ЗАДАЧИ
Задача оптимального параметрического синтеза (ОПС) технических устройств и систем [1, 5] состоит в выборе номинальных значений параметров исследуемого устройства Хном = Цно^ ..., Х^ом^
26
ООМТЯОЬ вОЕМОЕБ № 4 • 2011
обеспечивающих максимум вероятности безотказной работы в течение заданного времени:
хиом = агЕтахР(Х(хн
?) е О , V? е [0, Т]}, (1)
где Х(хиом, ?) — случайный процесс изменения параметров, Бх — область работоспособности, Т — заданное время эксплуатации устройства.
Исходными в рассматриваемой задаче являются информация о возможных вариациях значений внутренних параметров системы х = (хр ..., хп),
х е Я",
х. ■ т х. т х ,
гшш 1 гшах'
х, 1 0,
I = 1, п ,
(2)
и условия работоспособности (ограничения на ком-
I \
поненты вектора выходных параметров у = {у}, = х)
а, т у(х) т Ь,, у = 1, ..., т, у,- = ..., xn),
(3)
(4)
где ¥( (•) — известный оператор, зависящий от топологии исследуемого устройства. Зависимость (4) задается не в явной, а в алгоритмической форме, в частности, через численные решения систем уравнений (дифференциальных или алгебраических), описывающих функционирование исследуемой системы.
Информация о форме и ориентации области работоспособности Бх = {х е Яп : а < у(х) < Ь} в пространстве внутренних параметров отсутствует.
Поскольку зависимость (4) не имеет аналитического описания, классические методы нахождения экстремумов практически не применимы, приходится обращаться к поисковой оптимизации. Возникающие при этом существенные вычислительные затраты требуют поиска подходов, обеспечивающих ускорение получения желаемых результатов.
Программная среда решения задач ОПС пред-ставима в виде набора нескольких взаимосвязанных программно-алгоритмических модулей (ввод описания проектируемой системы в вычислительную среду, преобразование описания системы в математическую модель, детерминированный анализ, статистический анализ, оптимизация) [1]. Алгоритмические и программные средства модуля оптимизации предназначены для выбора наилучших проектных решений с учетом производственных и эксплуатационных отклонений параметров проектируемых систем от их расчетных значений. В частности, с их помощью должен выполняться поиск экстремума нелинейных целевых функций по стохастическому (вероятностному) или детерминированному критерию при нелинейных функциях-ограничениях на управляемые параметры,
не имеющих аналитического представления. Для получения желаемых результатов, как уже отмечалось, приходится обращаться к поисковой оптимизации, применяя подходы, сокращающие вычислительные затраты, например, технологию параллельных вычислений.
Одна из возможных стратегий состоит в применении методов случайного поиска, относящихся к иерархической оптимизации. Они работают при отсутствии информации о виде целевой и ограничивающих функций, при табличном их представлении.
Если известно, что целевая функция обладает ограниченной константой Липшица в своей области определения, применимы методы покрытий.
В случае выпуклости целевой функции и диф-ференцируемости ее на выпуклом конечномерном пространстве эффективно применение методов выпуклой оптимизации.
Для конкретного класса задач, из-за отсутствия среди методов поисковой оптимизации универсальных, приходится выбирать из них на основе имеющейся априорной информации или некоторых допущений тот или иной метод либо применять сразу несколько методов.
Поэтому ставится задача разработки многоме-тодных вычислительных схем поиска максимума нелинейных целевых функций, заданных алгоритмически, при нелинейных функциях-ограничениях на управляемые параметры систем и реализующих их устройств.
2. ОПИСАНИЕ СХЕМЫ ПРИМЕНЕНИЯ МН0Г0МЕТ0ДН0Й ТЕХНОЛОГИИ
Схему применения многометодной технологии для поиска максимума алгоритмически заданной целевой функции можно описать на примере использования трех алгоритмов: половинного деления [6], безызбыточного диагонального и безызбыточного одноточечного [7]. Они основаны на неравномерных покрытиях пространства поиска, предусматривают его разбиение на меньшие подобласти и вычисление в них верхних границ целевых функций с учетом оценок константы Липшица [7, 8]. Но, в отличие от двух последних алгоритмов, метод половинного деления не относится к безызбыточным.
Пусть ищется максимум целевой функции
ф(х) = Р{Х(хном, ?) е Ох, V? е [0, Т]}, (5)
удовлетворяющей в области поиска (п-мерном замкнутом ограниченном множестве Бх с Яп произвольной конфигурации и ориентации) условию Липшица; Р{-} — алгоритмически заданная функция, см. выражение (1).
Для метода половинных делений характерно, что в достаточно малых подобластях основное влияние оказывает локальная информация о поведении целевой функции, и, наоборот, в больших подобластях повышается роль глобальной информации о ней из-за возможной ненадежности в этом случае локальной информации. В связи с этим возникает необходимость установления разумного равновесия между использованием локальной и глобальной информации, чтобы обеспечить нахождение глобального максимума и ускорить работу алгоритма поиска [7].
Безызбыточная стратегия диагонального разбиения [7] позволяет вычислять значения целевой функции только в двух вершинах каждого п-мер-ного параллелепипеда разбиения на текущей итерации. Введенная в ней специальная индексация параллелепипедов разбиения дает возможность с малыми вычислительными затратами устанавливать связи между параллелепипедами, полученными на разных итерациях алгоритма, и разграничивает информацию о каждом полученном параллелепипеде и координатах его вершин, исключая повторные вычисления значений целевой функции в одних и тех же пробных точках.
Аналогичные свойства присущи и одноточечной безызбыточной стратегии разбиения [8], в которой вместо значений целевой функции ф(х) в двух вершинах текущего параллелепипеда используется лишь одно.
Можно показать [9—11], что в задачах ОПС подход на основе адаптивного диагонального разбиения и метода половинного деления эффективен в смысле сокращения объема вычислений и уменьшения компьютерной памяти, необходимой для хранения используемой информации. Однако имеющийся уровень информации об оптимизируемой функции не всегда позволяет заранее определить [8], какой из этих трех подходов на самом деле лучший для конкретной оптимизационной задачи. Поэтому осуществляется переход к много-методной вычислительной схеме на основе технологии, изложенной в работе [3]. Она реализуется путем организации параллельных вычислительных процессов для одновременного выполнения расчетов тремя перечисленными методами. Распараллеливание производится как по данным (одна параллельная инструкция воздействует на разные потоки данных), так и по процессам (различные потоки данных участвуют в вычислительном процессе под управлением различных потоков команд). Каждый процесс реализует итерационный алгоритм одного из методов, что позволяет решать одну и ту же задачу сразу несколькими методами.
Рис. 1. Схема вычисления приближения на (к + 1)-м шаге:
М1 — М3 — методы расчета
Согласно многометодной технологии после вычисления очередного приближения каждый из полученных результатов оценивается по приращению ф(xk) — ф(xk-1) целевой функции и наилучший из них x0 = arg max (ф(xk) — ф(xk-1)) исполь-
i = 1, 2, 3
зуется всеми методами на следующей итерации,
т. е. xk +1 = x0, i = 1, 2, 3. Итерационный процесс
продолжается, пока не будет получено приближение, для которого критерий оптимальности выполняется с заданной точностью. Схема вычисления (к + 1)-го приближения представлена на рис. 1.
Таким образом, одновременное применение разных методов поиска максимума алгоритмически заданной целевой функции (5) формирует группу алгоритмов, каждый из которых работает достаточно эффективно только в определенных условиях. При этом предлагаемый многометодный алгоритм предусматривает автоматический анализ результатов, полученных разными методами по заданному критерию.
3. ВЫЧИСЛИТЕЛЬНАЯ СХЕМА МН0Г0МЕТ0ДН0Г0 СЛУЧАЙНОГО ПОИСКА
Среди алгоритмов, обеспечивающих решение задачи оптимизации многопараметрических систем и обладающих такими привлекательными свойствами, как повышенное быстродействие, надежность и помехоустойчивость, простота программирования на ЭВМ, потенциальный параллелизм, привлекателен комбинированный поисковый алгоритм, изложенный в работе [12] как последовательный. Его идея состоит в следующем. Полагаются известными условия работоспособности и уравнения связи выходных переменных с параметрами элементов, а вероятность безотказной работы системы задается как функция номинальных значений параметров и времени эксплуатации. Ре-
шение задачи разбивается на два этапа. На первом из них осуществляется направленный случайный поиск приближенного решения, а на втором — его уточнение градиентным методом. Применение случайного поиска обеспечивает алгоритму глобальные свойства, уменьшает число вычислений целевой функции и позволяет достаточно просто учитывать любые ограничения на пространство допустимых вариаций параметров [1]. В окрестностях точек, подозрительных на экстремум, алгоритм автоматически переключается на градиентный метод, что позволяет обеспечить заданную точность вычислений. Если частные производные невозможно вычислить по аналитическому выражению, используются их приближенные значения. Описанный двухэтапный алгоритм в реальных ситуациях обеспечивает получение достаточно хороших результатов, но с ростом числа переменных существенно возрастает время решения, которое может быть уменьшено путем перехода от последовательных к параллельным вычислениям. Поэтому осуществляется переход от комбинированного алгоритма к многометодной оптимизации с реализацией нескольких методов случайного поиска в виде параллельных итерационных процессов. Эти процессы основаны на проведении итераций локального подъема из своих случайных точек в соответствии с выбранным алгоритмом нахождения локальных максимумов.
Последовательности случайных точек формируются генератором случайных чисел с большим периодом для параллельных программ [13], обладающим хорошим быстродействием и обеспечивающим удобный способ разбиения на независимые подпоследовательности.
В схему включены алгоритмы поиска с линейной и нелинейной тактикой, по наилучшей пробе и стохастического градиента [14, 15]. Они эффективны в многопараметрических задачах большой размерности с множеством локальных экстремумов, с априорной неопределенностью или недооп-ределенностью, в слабо формализуемых задачах. Их, как и другие алгоритмы случайного поиска, характеризуют (в различной степени) элементы эвристики, а поэтому им присущи недостатки эвристических методов. В частности, не удается четко выделить класс задач наибольшей эффективности того или иного метода, нет четких рекомендаций выбора параметров работы алгоритмов, поскольку их производительность сильно зависит от свойств целевой функции, о которой иногда почти ничего не известно.
Случайный поиск с линейной тактикой, обладая большим спектром возможных направлений подъема, эффективен при максимизации квазилинейных функций (вдали от экстремума). В отличие
Рис. 2. Вычислительная схема многометодного случайного поиска на к-м шаге приближения
от него случайный поиск с нелинейной тактикой обладает большим преимуществом в ситуациях со значительной нелинейностью (вблизи от экстремума) и при оптимизации многопараметрических задач.
Случайный поиск по наилучшей пробе содержит операцию накопления, состоящую из нескольких пробных шагов (определения в каждом из них значений максимизируемой функции). По их совокупности выбирается направление, приводящее к наибольшему увеличению значения функции. Этот метод, как и метод стохастического градиента, обеспечивает, при необходимости, сбор информации о поведении максимизируемой функции. Именно этим обосновано их применение в многометодной оптимизации.
При решении задачи (5) с помощью описанной в § 2 схемы многометодной оптимизации исходными данными считаются условия работоспособности (3), (4), ограничения (2) на параметры, образующие п-мерный параллелепипед допусков
В = {Х е Я "к т;п < Х < хтах,
I = 1,
п}, (6)
предельное число N шагов поиска и константа с, вводимая для оценки эффективности процесса поиска и определяющая точность получаемого решения.
Согласно поставленной задаче, параллелепипед (6) содержит область работоспособности Вх, но может не являться для нее описанным. В нем выбирается случайная начальная точка поиска х0 е Вх.
Многометодная технология реализуется по схеме, представленной на рис. 2. По начальной точке Х0,
принятой за исходную, на каждом из процессоров осуществляется поиск приближения к точке
локального максимума х^1), / = 1, 2, 3, 4, своим методом. Для следующего к-го (к 1 2) шага выбирается точка хк, удовлетворяющая условию
* / *(i) \ xk = arg max ф(xk_\ ), которая передается всем ме-
i = 1,2, 3
тодам, x^ = xk_ i, i = 1, 2, 3, 4. Итерационный процесс продолжается до получения приближения, обеспечивающего выполнение заданного критерия оптимальности |ф xk — фxk _ 11 < б, либо превышения заданного числа N шагов поиска.
Приведенная на рис. 2 вычислительная схема соответствует включению четырех алгоритмов случайного поиска как иллюстрация описываемого подхода. Может применяться и большее число алгоритмов с учетом числа имеющихся процессоров и степени информационной неопределенности об исследуемом объекте.
При включении алгоритмов в многометодную схему учитываются локальные и глобальные характеристики эффективности поиска. Локальные характеристики касаются каждого из включаемых алгоритмов и влияют на быстродействие поиска на одном шаге, вероятность появления в процессе поиска ошибочного (нежелательного) шага. От глобальных характеристик зависят критерий точности решения, критерий числа шагов, необходимых для решения задачи с заданной точностью, критерий надежности поиска (в смысле вероятности нахождения решения с заданной точностью) и др.
ЗАКЛЮЧЕНИЕ
Вычислительная многометодная технология поиска максимума алгоритмически заданной многоэкстремальной целевой функции реализована в виде параллельных итерационных процессов с выбором лучшего приближения после выполнения итераций всеми методами. В соответствии с ней решение задачи находится мультиметодным алгоритмом, состоящим из последовательных шагов разных методов, включаемых в процесс поиска в целях его ускорения. Такой подход учитывает особенности максимизируемой функции на всех этапах поиска и позволяет повысить эффективность решения.
Проведенные исследования позволяют утверждать, что применение таких алгоритмов обеспечивает в реальных условиях для каждой конкретной задачи подбор своей последовательности шагов из разных методов, приводящей к наиболее эффективному поиску. Кроме того, в условиях неполной или недостаточной информации об оптимизируемой функции рассмотренная технология дает возможность при применении методов случайного поиска модифицировать известные алгоритмы, учитывая специфику рассматриваемого объекта.
ЛИТЕРАТУРА
1. Абрамов О.В. Параметрический синтез стохастических систем с учетом требований надежности. — М.: Наука, 1992. — 176 с.
2. Батищев Д.И. Поисковые методы оптимального проектирования. — М.: Советское радио, 1975. — 216 с.
3. Тятюшкин А. И. Многометодная технология оптимизации управляемых систем. — Новосибирск: Наука, 2006. — 343 с.
4. Бернацкий Ф.И., Диго Т.Б., Диго Н.Б. Применение многоме-тодной технологии в робастном управлении // Информатика и системы управления. — 2002. — № 2(4). — С. 88—96.
5. Абрамов О.В., Катуева Я.В. Использование технологии параллельных вычислений в задачах анализа и оптимизации // Проблемы управления. — 2003. — № 4. — С. 11—15.
6. Евтушенко ЮГ, Ратькин В.А. Метод половинных делений для глобальной оптимизации функций многих переменных // Изв. АН СССР. Техническая кибернетика. — 1987. — № 1. — С. 119—127.
7. Сергеев Я.Д., Квасов Д.Е. Диагональные методы глобальной оптимизации. — М.: ФИЗМАТЛИТ, 2008. — 352 с.
8. Sergeyev Ya.D. Efficient partition of N-dimensional intervals in the framework of one-point-based algorithms // Journal of Optimization Theory and Applications. — 2005. — Vol. 124, N 2. — P. 503—510.
9. Диго Г.Б., Диго Н.Б. Анализ эффективности поиска глобального экстремума алгоритмически заданной функции на основе методов половинных делений и перебора на неравномерной сетке // Тр. VII Междунар. конф. «Идентификация систем и задачи управления» SICPR0'08 / ИПУ РАН. — М., 2008. — С. 512—525.
10. Диго Т.Б., Диго Н.Б. Применение диагонального разбиения в задачах оптимального параметрического синтеза // Информатика и системы управления. — 2008. — № 3(17). — С. 83—90.
11. Диго Г.Б., Диго Н.Б. Сокращение пространства поиска в задачах оптимизации на основе безызбыточной стратегии разбиения // Информатика и системы управления. — 2009. — № 3(21). — С. 79—86.
12. Абрамов О.В., Бернацкий Ф.И., Здор В.В. Параметрическая коррекция систем управления. — М.: Энергоиздат, 1982. — 176 с.
13. Галюк Ю.П., Мемнонов В.П. Генератор случайных чисел с большим периодом для параллельных программ // Вестник Санкт-Петербургского ун-та. Сер. 10: Прикладная математика. Информатика. Процессы управления. — 2010. — Вып. 1. — С. 136—146.
14. Растригин Л А. Адаптация сложных систем. — Рига: Зи-натне, 1981. — 375 с.
15. Лемешко Б.Ю. Методы оптимизации: Конспект лекций. — Новосибирск: Изд-во НГТУ, 2009. — 126 с.
Статья представлена к публикации членом редколлегии
Ф.Ф. Пащенко.
Диго Галина Борисовна — научный сотрудник,
Диго Наталья Борисовна — научный сотрудник,
Институт автоматики и процессов управления ДВО РАН,
г. Владивосток, ®(4232) 31-02-02.