НАУЧНОЕ ИЗДАНИЕ МЕТУ ИМ. Н. Э. БАУМАНА
НАУКА и ОБРАЗОВАНИЕ
Эл № ФС77 - 48211. Государственная регистрация №0421200025. КБМ 1994-0408
электронный научно-технический журнал
Интерактивные методы решения задачи многокритериальной оптимизации. Обзор
# 04, апрель 2013
DOI: 10.7463/0413.0547747
Шварц Д. Т.
УДК 519.6
Россия, МГТУ им. Н.Э. Баумана [email protected]
Введение
Большинство современных задач проектирования являются многокритериальными. С развитием производства и техники число таких задач постоянно растёт. Например, в компаниях НПО «Сатурн», ОКБ «Сухой», ООО «Ладуга», Canon, BMW, Fiat, Toyota, Piaggio процесс проектирования технических объектов и систем неразрывно связан с применением методов решения задачи многокритериальной оптимизации (МКО-задачи).
Методы решения МКО-задачи чрезвычайно разнообразны. Существует несколько способов классификации этих методов [1, 2]. Приведем классификацию, основанную на содержании и форме использования дополнительной информации о предпочтениях ЛПР [2], в соответствии с которой выделяют следующие классы методов:
• методы, не учитывающие предпочтения ЛПР (no-preference methods);
• апостериорные методы (a posteriori methods);
• априорные методы (a priori methods);
• интерактивные методы (interactive methods).
Методы каждого из этих классов имеют свои достоинства и ни один из них не свободен от недостатков. Методы могут принадлежать различным классам, также возможны различные комбинации указанных методов.
Методы, не учитывающие предпочтения ЛПР. Методы, принадлежащие к данному классу, не предполагают учета в той или иной форме информации о предпочтениях ЛПР.
Поэтому задача состоит в поиске некоторого компромиссного решения, обычно в «центральной части» фронта Парето. В качестве примеров приведем метод глобального критерия и метод нейтрального компромиссного решения [3].
Апостериорные методы предполагают внесение ЛПР в МКО-систему информации о своих предпочтениях после того, как получено некоторое множество недоминируемых решений. В этой связи все методы данного класса на первом этапе строят аппроксимацию множества Парето. В работе [4] выполнен обзор современных методов Парето-аппроксимации. Обычно для аппроксимации фронта Парето используют эволюционные алгоритмы [5]. В работе [6] выполнен обзор основных направлений развития эволюционных алгоритмов, призванных повысить их эффективность в задачах оптимизации с большим числом критериев.
Основной недостаток апостериорных методов заключается в том, что равномерная аппроксимация множества и/или фронта Парето требует больших вычислительных затрат. Кроме того, с повышением точности аппроксимации, которую достигают увеличением числа недоминируемых решений, задача выбора единственного решения из представленного множества становится более трудоемкой для ЛПР. Наконец, возникает самостоятельная проблема визуализации фронта Парето для задач с числом критериев большим двух [7].
Априорные методы призваны преодолеть основной недостаток апостериорных методов, связанный с построением всего множества достижимости. Здесь предполагают, что ЛПР вносит дополнительную информацию о своих предпочтениях до начала решения задачи, априори. Чаще всего эту информацию формализуют таким образом, чтобы свести многокритериальную задачу к однокритериальной. В качестве примеров можно привести метод скалярной свертки, метод Б — ограничений, лексикографического упорядочения и целевого программирования [8, 9, 10].
На практике априорные методы в «чистом» виде используются не часто, в связи с тем, что зачастую ЛПР очень сложно сформулировать свои предпочтения до начала решения задача.
Интерактивные методы. Методы данного класса состоят из совокупности итераций, каждая из которых включает в себя этап анализа, выполняемый ЛПР, и этап расчета, выполняемый МКО-системой. По характеру информации, получаемой МКО-системой от ЛПР на этапе анализа, можно выделить классы интерактивных методов [2], в которых ЛПР
• непосредственно назначает весовые коэффициенты частных критериев
оптимальности;
• накладывает ограничения на значения частных критериев оптимальности;
• выполняет оценку предлагаемых МКО-системой альтернатив.
В русскоязычной литературе наряду с термином интерактивность методов многокритериальной оптимизации используют термин адаптивность, делая акцент на том, что методы должны гарантировать получение эффективного решения [2].
Основой для развития современных интерактивных методов решения МКО-задачи послужили метод Дайера-Джиоффриона, метод SIGMOP (Sequential Information Generator for Multiple Objective Problems), метод Зайонца-Валлениуса [1, 2, 11].
Одним из современных интерактивных методов многокритериальной оптимизации, который относится к классу методов с применением информации от ЛПР о желаемых уровнях критериев, является метод NIMBUS (Nondifferentiable Interactive Multiobjective Bundle-based optimization System). Этот метод разработан в Хельсинском университете (г. Хельсинки, Финляндия) под руководством профессора К. Миеттинен и др. [12].
Среди интерактивных методов решения МКО-задачи наиболее перспективными являются методы, основанные на оценках решений. В зависимости от того, в какой форме ЛПР производит оценку решений, к данному классу методов можно отнести
• методы, в которых ЛПР выполняет оценку решений в терминах «отлично», «очень
хорошо», «хорошо» и т.д., или методы, основанные на оценках функции
предпочтений;
• методы, в которых ЛПР выполняет оценку решений в терминах «лучше», «хуже»,
«одинаково», или методы, основанные на парном сравнении решений.
Для ЛПР эти формы задания предпочтений являются наиболее простыми и удобными. В последние годы наметились тенденции развития именно этого класса методов, что обусловлено необходимостью активного участия ЛПР в решении сложных современных инженерных задач. Целью данной статьи является обзор новейших интерактивных методов именно этого класса.
В первом разделе представлена постановка МКО-задачи. Во втором и в третьем разделах рассматриваются интерактивные методы, основанные на оценках функции предпочтений, и интерактивные методы, основанные на парном сравнении решений, соответственно. В заключении сформулированы основные выводы.
1. Постановка МКО-задачи
МКО-задачу рассматриваем в виде
шт Ф (X) = Ф (X *), (1)
X еDX
где X е Rn - вектор варьируемых параметров; DX - ограниченное и замкнутое множество допустимых значений этого вектора; Ф( X) = (фх( X),..., фП1 (X)) -
Л/'*
векторный критерий оптимальности. ЛПР стремится найти такой вектор X - искомое решение МКО-задачи, который минимизирует на множестве DX каждый из частных критериев оптимальности.
Множество, в которое векторный критерий оптимальности Ф(X) отображает
множество DX, обозначим DФ и назовем критериальным множеством (множеством достижимости).
Также обозначим ZJ = Ф (X1), Z1 =( 2[, X1 е Dx, и будем писать 21 > 22 , если Ф 21. и среди равенств и неравенств ^ < 21. , г е [1: т ] имеется, хотя бы одно строгое. Вектор 21 из критериального множества доминирует по Парето вектор 22 из того же множества, если ^ >22.
Не формально, множество Парето DФ поставленной задачи многокритериальной оптимизации можно определить как совокупность векторов 2 е DФ, среди которых нет доминируемых. Формально, множество Парето определяют следующим образом:
D'ф = {VI• е Dф | {2' е Dф | 2' > 2'} = 0}.
Если Ф(X*) е В'ф, то будем говорить, что X - эффективный по Парето вектор.
7—. *
Множество векторов, принадлежащих множеству Парето, обозначим Dx .
Интерактивные методы решения МКО-задачи основаны на гипотезе существования единственной, неизвестной ЛПР скалярной функции его предпочтений
у/(X) е X е Dx. При этом полагают, что большему значению функции
у/(X) соответствует более предпочтительное с точки зрения ЛПР решение X .
2. Интерактивные методы, основанные на оценках функции предпочтений ЛПР
Метод ЕЕЛММ. Первый интерактивный метод многокритериальной оптимизации с использованием нейронных сетей для аппроксимации функции предпочтений ЛПР
FFANN (Feed-Forward Artificial Neural Networks, метод с использованием искусственной нейронной сети прямого распространения) был разработан профессором Минге Сан Университета Техаса (г. Сан Антонио, США) и профессорами Антонио Стам и Ральф Штойер Университета штата Джорджия (г. Атланта, США) [13].
В методе FFANN ЛПР оценивает предоставленные ему решения, задавая конкретные значения своей функции предпочтений по каждому отдельному решению. Для облегчения процедуры оценки, на каждой итерации ему предоставляют вектор надира
фnad _ {фпа _ тах (X), X Е DX }, которому соответствует значение функции предпочтений И(ф nad) _ 0, и идеальный вектор Ф _ _ min ф1 (X), X е Dx }
с оценкой И(Ф) = 100.
Структура нейронный сети представлена на рисунке 1. Входами нейронный сети являются компоненты нормализованного вектора частных критериев оптимальности, выходом - значение функции предпочтений. Авторы этого метода провели ряд экспериментов, подтверждающие тот факт, что метод является робастным к выбору архитектуры нейронной сети, точнее говоря, - к числу нейронов в скрытом слое.
¥
Рисунок 1 - Архитектура нейронной сети в методе FFANN Метод FFANN состоит из следующих шагов.
Шаг 1. Генерируем ^ недоминируемых векторов Х1, ] є [1: во множестве
допустимых значений Ох. Вычисляем значения соответствующего векторного критерия
оптимальности Ф1 = Ф(Х1), ] є [1: ^]. Инициализируем счетчик числа итераций И = 1.
Шаг 2. Предоставляем ^ значений векторного критерия оптимальности
Ф1, ] є [1: ^] совместно с векторами Ф и Фпа для оценки ЛПР. На основе полученной информации о предпочтениях ЛПР, определяем наилучший вектор Ф( И), найденный среди
всех итераций. Если ЛПР удовлетворяет текущее наилучшее решение, то данное решение ЛПР принимает в качестве решения МКО-задачи и прекращает вычисления.
Шаг 3. Нормализуем компоненты каждого из ^ критериальных векторов по формуле
ф = ф _ф../ е[1: ш\.j е[1: 4
Шаг 4. После того как ЛПР назначил каждому решению значение своей функции предпочтений у/(Ф]), выполняем нормализацию его оценок:
и(ф]) -и(ф ) • и т
и(ф ) _ ’ JЕ [1:5].
и(Ф) -и(ф )
Шаг 5. Используя нормализованные векторы ф1, j Е [1: s] с соответствующими нормализованными оценками /(ф1) выполняем обучение нейронной сети FFANN.
Шаг 6. Используя выходы нейронной сети FFANN для вычисления значений целевой функции, решаем задачу оптимизации для получения нового вектора решений на текущей h-ой итерации:
max у/(ф) _ у/(ф(h+1)).
X eDx
\(h+1)
Шаг 7. Если значение векторного критерия оптимальности ф + является уникальным, то есть его не предоставляли ЛПР для оценки на предыдущих итерациях, то генерируем новые недоминируемые решения, число которых равно (s-1). В противном случае, игнорируем ф(h+1) и генерируем s новых решений. Переходим на Шаг 2.
Для генерации недоминируемых решений авторы метода предлагают использовать расширенную взвешенную свертку Чебышева (augmented weighted Tchebycheff program)
х ,т“, ^ \а+р'^^(ф _ф")}.
а>А,г (фг _ ф*), V/ е [1: ш\.
Здесь р > 0 малая положительная константа; утопический вектор Ф имеет
7 ** 7 * /Л
координаты ф( = ф( _ £, где £ > 0 малая положительная константа. Область допустимых значений вектора весовых множителей Ле ОЛ с Я™ имеет вид
£>л=|л|Л > 0. ^ Я. = 1^. Обучение нейронной сети происходит стандартным методом обратного распространения ошибки.
Основным недостатком данного метода является то, что решения, генерируемые нейронной сетью, не всегда являются Парето оптимальными. Для решения этой проблемы авторы метода ЕЕЛЫЫ предложили модифицированный вариант данного метода, который носит название ЕЕЛЫЫ-2 [14\.
Метод ГГЛММ-2. Кратко рассмотрим основные отличия модифицированного метода ЕЕЛЫЫ-2 от его оригинальной версии. В методе ЕЕЛЫЫ-2 произвольным образом генерируем 20™ весовых векторов Ле ОЛ, где т - число частных критериев оптимальности. Авторы метода рекомендуют использовать число решений равное 20т, на основе проведенного ими эмпирического исследования. Далее среди 20т весовых векторов выбираем 28 вектора наиболее удаленных друг от друга на фронте Парето. После этого, используя выход обученной нейронной сети / в качестве значения функции предпочтений ЛПР, вычисляем значения функции (// (Ф) при подаче на вход 28 векторов Ф1, ] е [1:2*]. Среди всех полученных значений /1 =/(Ф1), j е [1: 2^\ выбираем 8 векторов Фк, k е [1: ^\, которые обеспечивают максимальное значение /к, к е [1: 8].
В данной версии метода нейронная сеть, реализующая аппроксимацию функции предпочтений ЛПР, не участвует в поиске наилучшего с точки зрения ЛПР решения, она всего лишь представляет собой оператор, который поддерживает разнообразие решений, предоставляемых ЛПР для оценки.
Метод РЯЕГ (РЯЕЕегепсе) призван решить вышеуказанные недостатки методов ГГЛЫЫ. Данный метод был разработан автором обзора под руководством д.ф.-м.н. Карпенко А.П. в МГТУ им. Н.Э. Баумана [15].
В основе метода РКЕЕ лежит операция скалярной свертки частных критериев
оптимальности <р( X, Л), где Ле ОЛ с Ят - вектор весовых множителей,
свертки не фиксируется - это может быть аддитивная свертка, мультипликативная свертка и другие.
При каждом фиксированном векторе Л метод скалярной свертки сводит решение многокритериальной задачи (1) к решению однокритериальной задачи глобальной условной оптимизации (ОКО-задачи)
В силу ограниченности и замкнутости множества Ох решение задачи (2) существует.
множество допустимых значений этого вектора. Способ
тіп (р(Х,Л) = (р(Х*,Л).
(2)
Если при каждом Ле Da решение задачи (2) единственно, то условие (2) ставит в соответствие каждому из допустимых векторов Л единственный вектор X и соответствующие значения частных критериев оптимальности ф1(Х ),...,фт(Х ). Это
обстоятельство позволяет полагать, что функция предпочтений ЛПР /(X, ф) Е R1 определена не на множестве Dx , а на множестве Da^ .
Основная идея метода PREF заключается в построении аппроксимации функции предпочтений ЛПР у/ (Л) на множестве Dk и поиске вектора Л Е DЛ, который
. * Т—v
максимизирует функцию предпочтений ЛПР. Более строго, вектор Л Е DЛ находим в результате решения ОКО-задачи
max цг(Л) _ цг(Л*).
Ле_Ол
Переход из пространства варьируемых параметров R , в пространство весовых
Тут
множителей R , позволяет упростить поиск наилучшего с точки зрения ЛПР решения, поскольку, как правило т ^ n .
Ключевой процедурой в методе PREF является аппроксимация функции предпочтений. Для аппроксимации функции предпочтений в работе [15] предложено использовать нейронные сети, аппарат нечеткой логики и нейро-нечеткие системы.
Общая схема метода PREF является итерационной и состоит из следующих основных этапов.
Этап «разгона» метода. МКО-система некоторым образом (например, случайно) последовательно генерирует к векторов Л., i Е [1: к] и для каждого из этих векторов
выполняет следующие действия.
1) Решает ОКО-задачу
пип ср( х , л. ) _ ср( х;, л. ). (3)
XeDx v 7
ТЛ*
2) Предъявляет ЛПР найденное решение Хi , а также соответствующие значение
всех частных критериев оптимальностиф1(Xi ),..фт(Xi ).
3) ЛПР оценивает эти данные и вводит в МКО-систему соответствующее значение своей функции предпочтений ц(Л. ).
Первый этап. На основе всех имеющихся в МКО-системе значений Л15..., Лк вектора Л и соответствующих оценок функции предпочтений /(Л1),/(Лк) МКО-система выполняет следующие действия.
1) Строит функцию /1(Л), аппроксимирующую функцию /(Л) в окрестности
точек Лк.
2) Отыскивает максимум функции / (Л) - решает ОКО-задачу
max / (Л) = /1(Л*).
ЛєDд
3) С найденным вектором Л1 решает ОКО-задачу вида (3) - находит вектор
параметров и соответствующие значения частных критериев оптимальности, а затем предъявляет их ЛПР. В свою очередь, ЛПР оценивает предлагаемые ему решения и вводит
в систему соответствующее значение своей функции предпочтений /(ЛД
Второй этап. На основе всех имеющихся в системе значений вектора Л и соответствующих оценок функции предпочтений /(Л), /(Лк),/(Л1) МКО-
система выполняет аппроксимацию функции /(Л) в окрестности точек Л1,..., Лк, Л1 -строит функцию /2 (Л). И так далее по схеме первого этапа до тех пор, пока ЛПР не
остановится на каком-либо решении.
Таким образом, в методе РИЕР на этапе анализа ЛПР для оценки предоставляются решения, принадлежащие множеству Парето. На этапе расчета для поиска более удовлетворительных с точки зрения ЛПР решений непосредственно используется аппроксимация функции предпочтений ЛПР.
Особенности нейросетевой, нечеткой и нейро-нечеткой аппроксимации функции предпочтений ЛПР рассматриваются в работах [16, 17, 18]. Также в этих работах проведено исследование эффективности указанных способов аппроксимации при решении тестовых МКО-задач. Результаты решения практических задач с использованием метода РКЕЕ представлены в работах [16, 19].
3. Интерактивные методы, основанные на парном сравнении решений
В рассматриваемом классе методов предполагают, что ЛПР вносит свои предпочтения в МКО-систему в виде парного сравнения отдельных решений [20, 21, 22].
Например, альтернатива Xі и соответствующее значение векторного критерия оптимальности Ф1 «лучше» набора (Xі, Ф1) (обозначим, Ф1 < Ф1) или два набора
(х*, ф) и (X', ф1) «неразличимы» (ф1 = ф1). На основе полученной информации
МКО-система тем или иным способом строит аппроксимацию функции предпочтений лпр ц(Х,ф) с целью обеспечения корректного ранжирования данных. Другими
словами, если ф1 < ф1, то /(X1, ф1 )>/(X1, ф1); если ф1 = ф1, то
ц( X1, ф1)/ X1, ф1).
Все методы данного класса, разработанные к настоящему времени, используют близкий подход, который состоит в комбинации одного из эволюционных алгоритмов с процедурой построения функции предпочтений ЛПР /(X,ф) .
Общая схема методов данного класса может быть представлена следующим образом. Шаг 1. Генерируем начальную популяцию решений P^0).
Шаг 2. Одним из методов приближенного построения множества Парето получаем
начальную аппроксимацию этого множества: формируем множество решений P(h).
Шаг 3. Выбираем из множества P(h) число решений (Х, ф) равное s для оценки
ЛПР. Затем ЛПР ранжирует эти решения и вносит эту информацию в систему.
Шаг 4. На основе полученной информации МКО-система строит аппроксимацию
функции предпочтений ЛПР /(й).
Шаг 5. Запускаем метод приближенного построения множества Парето, при этом, в качестве «функции приспособленности» отдельных решений используем текущую
функцию предпочтений ЛПР /(й) и формируем множество решений P(А+1).
Шаг 6. Если условие останова выполнено, то завершаем вычисления. В противном случае, осуществляем переход на Шаг 2.
Основным критерием останова является получение ЛПР наиболее удовлетворяющего его решения. Однако на этапе испытания метода на тестовых задачах многокритериальной оптимизации, при отсутствии реального ЛПР, могут быть рассмотрены также другие условия. Например, выполнение наперед заданного числа итераций диалога с ЛПР или достижение фиксированного числа итераций метода приближенного построения множества Парето.
Далее в работе рассматриваем наиболее развитые современные методы данного класса: IEM, PI-EMO-VF, BC-EMO.
Метод IEM. В работе [20] авторы предлагают метод IEM (Interactive Evolutionary Method, Интерактивный эволюционный метод), в основе которого лежит скалярная свертка частных критериев оптимальности вида
m ^
w( x ) = -£(4 \ф* - ф, (x >|)
'=1
где ? - параметр, который определяет функцию предпочтений; А - компоненты вектора
весовых множителей Л = А,-,А)^Л; ф* = (......................ф:) - идеальный вектор
частных критериев оптимальности. Для нахождения весовых множителей А авторы решают задачу оптимизации
тах е,
Л, е
(5)
£\ = 1, \ ^, к е [1: m],
к=1
m . m .
£4(ф*-Фк) (ф*-Фк) -г, v®чф',
к=1 к=1
где S - «граница» предпочтений. Здесь парные сравнения решений формируют ограничения задачи оптимизации. В работе [20] авторы предполагают, что функция предпочтений ЛПР линейна (t = 1). При этом, авторы не приводят никаких рекомендаций по выбору этого параметра. Если функция предпочтений нелинейная, то этот метод может генерировать недопустимые для ЛПР решения. В этом случае авторы предлагают удалять по одному из ограничений в хронологическом порядке, до тех пор, пока решение задачи (5) не будет найдено. Тем самым они предполагают, что последние поступившие оценки от ЛПР имеют большую важность, чем информация, полученная на первых итерациях.
Метод PI-EMO-VF (Progress'vely Interactive Evolut'onary Multi-objective Opt'm'zat'on us'ng Value Function, Интерактивный Эволюционный Метод Многокритериальный Оптимизации с использованием Функции Предпочтении) [21]. Здесь авторы предлагают использовать функцию предпочтений вида
t m
v( x )=П£(а,, ф (х)+в),
'=1 ,=1
m m (6)
в=1 -£«., , £«, ,)+в, > о, ()
i=1 i=1
а,,j е [0:1], j е [1: t].
Параметр t также определяет функцию предпочтений ЛПР. Определение коэффициентов аа. . и в. происходит в результате решения вспомогательной задачи
max s,
Л, s
/(Xi) -/(X]) >s, V® ч Ф', /(Xi) -/(X') < 0,1s, V® = Ф'.
В отличие от метода IEM, здесь учитывается информация о решениях, которые для ЛПР равнозначны. Другим важным отличием, является то, что параметр t подбирают итерационно. На первом этапе принимают t = 1 и решают задачу (7). Если в процессе решения этой задачи не удается найти коэффициенты функции предпочтений (6) так, чтобы удовлетворить всем ограничениям, то параметр t увеличивают (t = 2), и вновь
решают задачу (7). Вычисления выполняют до тех пор, пока функция предпочтений не будет удовлетворять всем ограничениям (7).
Метод PI-EMO-VF в качестве метода аппроксимации множества Парето использует алгоритм NSGA-II (Non-dom'nated sorting genetic algorithm version II - Генетический алгоритм недоминируемой сортировки версии II) [23].
Авторы методов IEM и PI-EMO-VF при построении функции предпочтений не принимают во внимание то, что ЛПР может ошибаться и давать противоречивые ответы. Они подразумевают, что ЛПР всегда дает верные оценки и, в результате, сводят задачу обучения к задаче оптимизации.
Метод BC-EMO (Brain-Computer Evolutionary Multiobjective Optimization, Нейрокомпьютерный Эволюционный Метод Многокритериальной Оптимизации), с нашей точки зрения, является наиболее перспективным в настоящее время [22]. Отметим, что перевод термина «brain-computer» соответствует принятой терминологии (http://neurobotics.ru/research/bci/). Аппроксимацию функции предпочтений /(X,Ф) в этом методе выполняют на основе машины опорных векторов (Support Vector Machine, SVM) [24], что выгодно отличает BC-EMO от остальных существующих интерактивных методов данного класса:
1) метод позволяет строить функцию предпочтений на основе парных сравнений решений, эта форма оценки решений является наиболее удобной для ЛПР;
2) метод является робастным к неточным и противоречивым оценкам ЛПР, что является типичным при решении МКО-задач;
3) выбор различных ядер [24] в методе опорных векторов позволяет наилучшим способом аппроксимировать функцию предпочтений ЛПР.
В методе BC-EMO функция предпочтений ЛПР строится в виде /(Ф) = (О, Ф) , где
символ обозначает скалярное произведение векторов. Эта функция должна
выполнять заданное ранжирование данных: VФi Ч Ф' : /(Фi) >/(Ф'). Для
построения функции предпочтений ЛПР необходимо найти такой вектор О, который удовлетворяет всем неравенствам вида
V® ч Ф1: (о,Фг) >(о,Ф1). (8)
При решении практических задач очень сложно подобрать такой вектор О, который удовлетворяет всем вышеуказанным неравенствам (8). В этом случае, точки из пространства критериев проецируют в новое пространство признаков (feature space) посредством проецирующей функции G(«). Новое пространство имеет большую
размерность, чем размерность пространства критериев (это пространство, в котором к исходным признакам - частным критериям оптимальности - добавлены их парные произведения). В математической формулировке задача оптимизации для поиска вектора О имеет вид
mini ОО + C £4,j,
(0,4 2 i ,j
[m,GФ))-(о,G(Ф1 j) > 1 -4 j, (9)
4L‘ > 0, Vi, j: Ф ч Ф1, V/, j е [1: £].
Фиктивная переменная 4 ' характеризует величину ошибки на двух векторах Ф и Ф1, С - параметр регуляризации, задается пользователем или адаптивно подбирается на основе перекрестной проверки (cross-validation) [22].
Задача (9) является задачей квадратичного программирования, поэтому для ее решения целесообразно применить метод множителей Лагранжа. Метод требует
вычисления скалярного произведения {0(Фi), G(Ф1 )^ . Для эффективного вычисления
скалярного произведения двух векторов без непосредственного проецирования их в новое пространство вводят понятие ядра скалярного произведения и обозначают его
K (Ф, Ф1) = (ОФ ), G(®')).
В результате функцию предпочтений можно записать в виде линейной комбинации
ядер
/(X) = £ аи (К(Ф ,Ф( X)) - K (Ф ',Ф( X))),
(Ф' ,Фj )eSV
где ai j - множители Лагранжа [22].
В методе BC-EMO выбор конкретной функции ядра происходит автоматически в процессе решения МКО-задачи на основе перекрестной проверки из следующего списка:
• К (Ф1 ,Ф1) = 1 + ф1 ,Ф '^ - линейная функция;
• к (ф1 , ф 1) = (1 + ф, ф ') )2 - полиномиальная функция второй степени;
• К(Ф1 ,Ф1) = exp(-Y Ф1 -Ф1 ) - гауссова функция, где положительную
{ _3 _^ _1 __ 1 2 3
константу у подбирают из совокупности {e , e , e ,1, e , e , e }.
Оригинальная версия BC-EMO, также как метод PI-EMO-VF, в качестве метода аппроксимации множества Парето использует алгоритм NSGA-II [23].
Результаты широкого исследования эффективности метода BC-EMO на различных тестовых МКО-задачах приведены в работе [22].
Заключение
В работе выполнен обзор современных интерактивных методов ЕЕЛЫЫ и РЕЕЕ, основанных на оценках функции предпочтений, и методов 1ЕМ, Р1-ЕМО-УЕ и ВС-ЕМО, основанных на парном сравнении решений.
На основании выполненного обзора может быть сделан вывод о том, что наиболее перспективными являются методы РЕЕЕ и ВС-ЕМО. Предлагаются следующие направления развития этих методов.
• Разработка более удобных средств взаимодействия ЛПР с указанными методами; создание самостоятельной МКО-системы на основе этих методов.
• Разработка и реализация параллельных алгоритмов методов РЕЕЕ и ВС-ЕМО в связи с тем, что практические задачи оптимизации, как правило, имеют большую вычислительную сложность.
Автор благодарит своего научного руководителя д.ф.-м.н. МГТУ им.Н.Э. Баумана Карпенко А.П. за плодотворное обсуждение работы, а также за всестороннюю помощь по ее совершенствованию.
Список литературы
1. Лотов А.В., Поспелова И.И. Многокритериальные задачи принятия решений: учеб. пособие. М.: МАКС Пресс, 2008. 197 с.
2. Растригин Л.А., Эйдук Я.Ю. Адаптивные методы многокритериальной оптимизации // Автоматика и телемеханика. 1985. № 1. С. 5-26.
3. Wierzbicki A.P. Reference point approaches // Multicriteria Decision Making: Advances in MCDM Models, Algorithms, Theory and Applications / Gal T., Stewart T.J., Hanne T. (Eds.). Boston: Kluwer Academic Publishers, 1999. P. 9.1-9.39.
4. Карпенко А.П., Семенихин А.С., Митина Е.В. Популяционные методы аппроксимации множества Парето в задаче многокритериальной оптимизации. Обзор // Наука и образование. МГТУ им. Н.Э. Баумана. Электрон. журн. 2012. № 4. Режим доступа: http://www.technomag.edu.ru/doc/363023.html (дата обращения 08.07.2012).
5. Multiobjective Optimization: Interactive and Evolutionary Approaches / Branke J., Deb K., Miettinen K., Slowinski R. (Eds.). Berlin/Heidelberg, Germany: Springer-Verlag, 2008.
470 p.
6. Wang R., Purshouse R.C., Fleming P.J. Preference-inspired Co-evolutionary Algorithms for Many-objective Optimisation // IEEE Transactions on Evolutionary Computation. 2012.
DOI: 10.1109/TEVC.2012.2204264
7. Miettinen K. Nonlinear Multiobjective Optimization. Boston: Kluwer Academic Publishers, 1999. 298 p.
8. Gass S., Saaty T. The computational algorithm for the parametric objective function // Naval Research Logistics Quarterly. Wiley, 1955. Vol. 2, no. 1-2. P. 39-45.
9. Fishburn P.C. Lexicographic orders, utilities and decision rules: A survey // Management Science. USA, 1974. Vol. 20, no. 11. P. 1442-1471.
10. Charnes A., Cooper W.W. Management Models and Industrial Applications of Linear Programming. Vol. 1. New York: Wiley, 1961. 859 p.
11. Ларичев О.И. Теория и методы принятия решений. М.: Университетская книга, Логос, 2002. 392 c.
12. Miettinen K., Makela M.M. Interactive Bundle-based Method for Nondifferentiable Multiobjective Optimization: NIMBUS // Optimization: A Journal of Mathematical Programming and Operations Research. 1995. Vol. 34, no. 3. P. 231-246.
13. Sun M., Stam A., Steuer R. Solving multiple objective programming problems using feed-forward artificial neural networks: The interactive FFANN procedure // Management Science. 1996. Vol. 42, no. 6. P. 835-849.
14. Sun M., Stam A., Steuer R. Interactive multiple objective programming using Tchebycheff programs and artificial neural networks // Computer Operations Research. 2000. Vol. 27, no. 7-8. P. 601-620.
15. Карпенко А.П., Федорук В.Г. Аппроксимация функции предпочтений лица, принимающего решения, в задаче многокритериальной оптимизации. 3. Методы на основе нейронных сетей и нечеткой логики // Наука и образование. МГТУ им. Н.Э. Баумана. Электрон. журн. 2008. № 4. Режим доступа: http://www.technomag.edu.ru/doc/86335.html (дата обращения 02.07.2012).
16. Карпенко А.П., Мухлисуллина Д.Т., Овчинников В.А. Нейросетевая аппроксимация функции предпочтений лица, принимающего решения, в задаче многокритериальной оптимизации // Информационные технологии. 2010. № 10. С. 2-9.
17. Карпенко А.П., Моор Д.А., Мухлисуллина Д.Т. Многокритериальная оптимизация на основе нечеткой аппроксимации функции предпочтений лица, принимающего решения // Наукоемкие технологии и интеллектуальные системы 2010: труды 12-ой молодежной международной научно-технической конференции. М., 2010. С. 94-98.
18. Карпенко А.П., Моор Д.А., Мухлисуллина Д.Т. Многокритериальная оптимизация на основе нейро-нечеткой аппроксимации функции предпочтений лица, принимающего решения // Наука и образование. МГТУ им. Н.Э. Баумана. Электрон. журн. 2010. № 6. Режим доступа: http://technomag.edu.ru/doc/143964.html (дата обращения 03.10.2012).
19. Карпенко А.П., Мухлисуллина Д.Т., Цветков А.А. Многокритериальная оптимизация геометрии щелевого фильтра для очистки жидкостей // Наука и образование. МГТУ им. Н.Э. Баумана. Электрон. журн. 2013. № 2. DOI: 10.7463/0213.0539055
20. Phelps S., Koksalan M. An interactive evolutionary metaheuristic for multiobjective combinatorial optimization // Management Science. 2003. Vol. 49, no. 12. P. 1726-1738.
21. Deb K., Sinha A., Korhonen P.J., Wallenius J. An Interactive Evolutionary Multiobjective Optimization Method Based on Progressively Approximated Value Function // IEEE Transactions on Evolutionary Computation. 2010. Vol. 14, no. 5. P. 723-739.
22. Battiti R., Passerini A. Brain-computer evolutionary multiobjective optimization (BC-EMO): a genetic algorithm adapting to the decision maker // IEEE Transaction on Evolutionary Computation. 2010. Vol. 14, no. 5. P. 671-687.
23. Deb K., Pratap A., Agarwal S., Meyarivan T. A fast elitist multi-objective genetic algorithm: NSGA-II // IEEE Transaction on Evolutionary Computation. 2002. Vol. 6, no. 2.
P. 182-197.
24. Хайкин С. Нейронные сети. Полный курс : пер. с англ. М.: ООО «И.Д.Вильямс», 2008. 1104 c.
25. Zhang Q., Li H. MOEA/D: A multiobjective evolutionary algorithm based on decomposition // IEEE Transactions on Evolutionary Computation. 2007. Vol. 11, no. 6. P. 712731.
26. Li H., Zhang Q. Multiobjective optimization problems with complicated pareto sets, MOEA/D and NSGA-II // IEEE Transactions on Evolutionary Computation. 2009. Vol. 13, no. 2. P. 284-302.
SCIENTIFIC PERIODICAL OF THE BAUMAN MSTU
SCIENCE and EDUCATION
EL № FS77 - 48211. №0421200025. ISSN 1994-0408
electronic scientific and technical journal
Interactive methods for solving multi-objective optimization problem. Review
# 04, April 2013
DOI: 10.7463/0413.0547747
Shvarc D.T.
Bauman Moscow State Technical University, 105005, Moscow, Russian Federation
This article deals with a review of modern interactive methods for solving the multiobjective optimization problem. The most advanced class of interactive methods is represented by techniques based on estimations offered by the system of multi-objective optimization of alternatives. Depending on the form of the decision maker’s estimates one can separate two classes of interactive methods: methods based on estimations of DM’s preference function and methods based on the pairwise comparison of solutions. Precisely these two classes of interactive methods are described in more detail in this article; directions for their further development are proposed.
Publications with keywords: multiobjective optimization, interactive methods, decision maker’s utility function
Publications with words: multiobjective optimization, interactive methods, decision maker’s utility function
References
1. Lotov A.V., Pospelova I.I. Mnogokriterial'nye zadachipriniatiia reshenii [Multicriterion problems of decision making]. Moscow, MAKS Press, 2008. 197 p.
2. Rastrigin L.A., Eiduk Ia.Iu. Adaptivnye metody mnogokriterial'noi optimizatsii [Adaptive methods of multi-criteria optimization]. Avtomatika i telemekhanika, 1985, no. 1, pp. 5-26.
3. Wierzbicki A.P. Reference point approaches. In book: Gal T., Stewart T.J., Hanne T., eds. Multicriteria Decision Making: Advances in MCDMModels, Algorithms, Theory and Applications. Kluwer Academic Publishers, Boston, 1999, pp. 9.1-9.39.
4. Karpenko A.P., Semenikhin A.S., Mitina E.V. Populiatsionnye metody approksimatsii mnozhestva Pareto v zadache mnogokriterial'noi optimizatsii. Obzor [Review: population
methods of Pareto set approximation in multi-objective optimization problem]. Nauka i obrazovanie MGTU im. N.E. Baumana [Science and Education of the Bauman MSTU], 2Q12, no. 4. Available at: http://www.technomag.edu.ru/doc/3б3Q23.html , accessed QB.Q7.2Q12.
5. Branke J., Deb K., Miettinen K., Slowinski R., eds. Multiobjective Optimization: Interactive and Evolutionary Approaches. Berlin/Heidelberg, Germany, Springer-Verlag, 2QQB. 47Q p.
6. Wang R., Purshouse R.C., Fleming P.J. Preference-inspired Co-evolutionary Algorithms for Many-objective Optimisation. IEEE Transactions on Evolutionary Computation, 2Q12. DOI: 1Q.11Q9/TEVC.2Q12.22Q4264
7. Miettinen K. Nonlinear Multiobjective Optimization. Boston, Kluwer Academic Publishers, 1999. 29В p.
B. Gass S., Saaty T. The computational algorithm for the parametric objective function. Naval Research Logistics Quarterly. Wiley, 1955, vol. 2, no. 1-2, pp. 39-45.
9. Fishburn P.C. Lexicographic orders, utilities and decision rules: A survey. Management Science. USA, 1974, vol. 2Q, no. 11, pp. 1442-1471.
1Q. Charnes A., Cooper W.W. Management Models and Industrial Applications of Linear Programming. Vol. 1. New York, Wiley, 19б1. B59 p.
11. Larichev O.I. Teoriia i metody priniatiia reshenii [Theory and methods of decision making]. Moscow, Universitetskaia kniga, Logos, 2QQ2. 392 p.
12. Miettinen K., Makela M.M. Interactive Bundle-based Method for Nondifferentiable Multiobjective Optimization: NIMBUS. Optimization: A Journal of Mathematical Programming and Operations Research, 1995, vol. 34, no. 3, pp. 231-24б.
13. Sun M., Stam A., Steuer R. Solving multiple objective programming problems using feed-forward artificial neural networks: The interactive FFANN procedure. Management Science, 199б, vol. 42, no. б, pp. B35-B49.
14. Sun M., Stam A., Steuer R. Interactive multiple objective programming using Tchebycheff programs and artificial neural networks. Computer Operations Research, 2QQQ, vol.
27, no. 7-8, pp. 6Q1-62Q.
15. Karpenko A.P., Fedoruk V.G. Approksimatsiia funktsii predpochtenii litsa, prinimaiushchego resheniia, v zadache mnogokriterial'noi optimizatsii. 3. Metody na osnove neironnykh setei i nechetkoi logiki [Approximation of functions of preferences of decision maker in the problem of multi-criteria optimization. 3. Methods on the basis of neural networks and fuzzy logic]. Nauka i obrazovanie MGTU im. N.E. Baumana [Science and Education of the Bauman MSTU], 2QQB, no. 4. Available at: http://www.technomag.edu.ru/doc/B6335.html , accessed Q2.Q7.2Q12.
16. Karpenko A.P., Mukhlisullina D.T., Ovchinnikov V.A. Neirosetevaia approksimatsiia funktsii predpochtenii litsa, prinimaiushchego resheniia, v zadache mnogokriterial'noi optimizatsii [Neural network approximation of decisions maker's utility function in multicriteria optimization problem]. Informatsionnye tekhnologii, 2Q1Q, no. 1Q, pp. 2-9.
17. Karpenko A.P., Moor D.A., Mukhlisullina D.T. Mnogokriterial'naia optimizatsiia na osnove nechetkoi approksimatsii funktsii predpochtenii litsa, prinimaiushchego resheniia
[Multicriteria optimization based on fuzzy approximation of decision maker’s utility function]. Naukoemkie tekhnologii i intellektual'nye sistemy 2Q1Q: trudy 12-oi molodezhnoi mezhdunarodnoi nauchno-tekhnicheskoi konferentsii [Science-intensive technologies and intellectual systems 2Q1Q: proc. of the 12th international youth scientific and technical conference]. Moscow, 2Q1Q, pp. 94-98.
18. Karpenko A.P., Moor D.A., Mukhlisullina D.T. Mnogokriterial'naia optimizatsiia na osnove neiro-nechetkoi approksimatsii funktsii predpochtenii litsa, prinimaiushchego resheniia [Multicriteria optimization based on neuro-fuzzy approximation of decision maker’s utility function]. Nauka i obrazovanie MGTU im. N.E. Baumana [Science and Education of the Bauman MSTU], 2Q1Q, no. 6. Available at: http://technomag.edu.ru/doc/143964.html , accessed Q3.1Q.2Q12.
19. Karpenko A.P., Mukhlisullina D.T., Tsvetkov A.A. Mnogokriterial'naia optimizatsiia geometrii shchelevogo fil'tra dlia ochistki zhidkostei [Multiobjective optimization of water slotted filter geometry]. Nauka i obrazovanie MGTU im. N.E. Baumana [Science and Education of the Bauman MSTU], 2Q13, no. 2. DOI: 1Q.7463/Q213.Q539Q55
2Q. Phelps S., Koksalan M. An interactive evolutionary metaheuristic for multiobjective combinatorial optimization. Management Science, 2QQ3, vol. 49, no. 12, pp. 1726-1738.
21. Deb K., Sinha A., Korhonen P.J., Wallenius J. An Interactive Evolutionary Multiobjective Optimization Method Based on Progressively Approximated Value Function. IEEE Transactions on Evolutionary Computation, 2Q1Q, vol. 14, no. 5, pp. 723-739.
22. Battiti R., Passerini A. Brain-computer evolutionary multiobjective optimization (BC-EMO): a genetic algorithm adapting to the decision maker. IEEE Transaction on Evolutionary Computation, 2Q1Q, vol. 14, no. 5, pp. 671-687.
23. Deb K., Pratap A., Agarwal S., Meyarivan T. A fast elitist multi-objective genetic algorithm: NSGA-II. IEEE Transaction on Evolutionary Computation, 2QQ2, vol. 6, no. 2, pp. 182-197.
24. Haykin S. Neural Networks: A Comprehensive Foundation. 2nd ed. Prentice-Hall, 1999. 842 p. (Russ. ed.: Khaikin S. Neironnye seti. Polnyi kurs. Moscow, OOO «I.D.Vil'iams», 2QQ8. 11Q4 p.).
25. Zhang Q., Li H. MOEA/D: A multiobjective evolutionary algorithm based on decomposition. IEEE Transactions on Evolutionary Computation, 2QQ7, vol. 11, no. 6, pp. 712731.
26. Li H., Zhang Q. Multiobjective optimization problems with complicated pareto sets, MOEA/D and NSGA-II. IEEE Transactions on Evolutionary Computation, 2QQ9, vol. 13, no. 2, pp. 284-3Q2.