Научная статья на тему 'Мета-оптимизация популяционных алгоритмов многоцелевой оптимизации'

Мета-оптимизация популяционных алгоритмов многоцелевой оптимизации Текст научной статьи по специальности «Математика»

CC BY
339
62
i Надоели баннеры? Вы всегда можете отключить рекламу.
Область наук
Ключевые слова
МНОГОКРИТЕРИАЛЬНАЯ ОПТИМИЗАЦИЯ / МНОЖЕСТВО ПАРЕТО / ПАРЕТО-АППРОКСИМАЦИЯ / ПОПУЛЯЦИОННЫЕ АЛГОРИТМЫ / ФРОНТ ПАРЕТО / КАЧЕСТВО РЕШЕНИЯ / MULTICRITERIA OPTIMIZATION / PARETO SET / PARETO APPROXIMATION / POPULATION-BASED ALGORITHMS / PARETO FRONT / QUALITY OF SOLUTION

Аннотация научной статьи по математике, автор научной работы — Грошев Сергей Владимирович, Карпенко Анатолий Павлович

Рассматриваются популяционные (эволюционные и роевые) алгоритмы многоцелевой оптимизации, которые основаны на предварительном построении конечномерной аппроксимации множества (а тем самым, и фронта) Парето этой задачи, называемые П-алгоритмами. Для оценки качества указанной конечно-мерной Парето-аппроксимации (П-аппроксимации) используют различные критерии (индикаторы) качества (П-индикаторы). В работе ставится задача структурной мета-оптимизации П-алгоритмов, которая предполагает одновременное построение П-аппроксимации и оптимизацию этой аппроксимации по одному или нескольким П-индикаторам. Предлагается класс само-адаптивных методов решения указанной задачи метаоптимизации. Применительно к одному из П-индикаторов общая идея предлагаемого подхода к синтезу методов мета-оптимизации заключается в модификации эволюционных операторов и/или итерационной формулы исходного (базового) П-алгоритма с использованием этого П-индикатора так, чтобы повысить качество получаемой П-аппроксимации с точки зрения данного индикатора. Подход основан на периодическом или квазипериодическом определении совокупности архивных точек, являющихся «притягивающими» для ближайших агентов текущей популяции. Рассматриваются две стратегии реализации данного подхода: добавление в базовый П-алгоритм оператора кроссинговера (скрещивания), построенного на основе «притягивающей» точки; добавление в итерационную формулу того же алгоритма слагаемого, которое обеспечивает перемещение выбранного агента в направлении этой точки.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Грошев Сергей Владимирович, Карпенко Анатолий Павлович

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Meta-optimization of populations algorithms in multipurpose optimization

We consider the population (evolutionary and swarms) algorithms for multiobjective optimization, which are based on pre-constructed finite-dimensional approximation of (and thus, and front) Pareto this problem, called the P-algorithms. To assess the quality of this coursedimensional Pareto-approximation (P-approximation) use different criteria (indicators) quality (P-indicators). In this work we seeks to optimize the structural meta-P algorithms, which involves the simultaneous construction of the P-approximation and optimization of the approximation for one or more P-indicators. Proposed class of self-adaptive methods for solving this problem of meta-optimization. With regard to one of the P-indicators the general idea of the proposed approach to the synthesis methods of meta-optimization is to modify the evolutionary operators and/or iterative formula initial (base) P-algorithm using this P-indicator as to improve the quality of the resulting P-apprximation from the viewpoint of approximation of the indicator. The approach is based on a periodic or quasi-periodic determination of the aggregate history points that are "attracting" for the nearest agent of the current population. We consider two strategies for the implementation of this approach: Added to the base-set P-operator algorithm crossover (cross-breeding), builded on the basis of "attractive" terms; adding to the same formula iterative algorithm term, which moves the selected agent toward that point.

Текст научной работы на тему «Мета-оптимизация популяционных алгоритмов многоцелевой оптимизации»

Интернет-журнал «Науковедение» ISSN 2223-5167 http ://naukovedenie.ru/

Том 8, №6 (2016) http ://naukovedenie.ru/vol8-6 .php

URL статьи: http://naukovedenie.ru/PDF/52TVN616.pdf

DOI: 10.15862/52TVN616 (http://dx.doi.org/10.15862/52TVN616)

Статья опубликована 13.12.2016

Ссылка для цитирования этой статьи:

Грошев С.В., Карпенко А.П. Мета-оптимизация популяционных алгоритмов многоцелевой оптимизации // Интернет-журнал «НАУКОВЕДЕНИЕ» Том 8, №6 (2016) http://naukovedenie.ru/PDF/52TVN616.pdf (доступ свободный). Загл. с экрана. Яз. рус., англ.

Работа поддержана РФФИ (проекты № 16-07-00287, 15-07-01764) УДК 519.6

Грошев Сергей Владимирович

ФГБОУ «Московский Государственный технический университет им. Н.Э. Баумана», Россия, Москва1 Старший преподаватель кафедры «Системы автоматизированного проектирования»

E-mail: [email protected]

Карпенко Анатолий Павлович

ФГБОУ «Московский Государственный технический университет им. Н.Э. Баумана», Россия, Москва

Зав. кафедрой «Системы автоматизированного проектирования» Доктор физико-математических наук, профессор E-mail: [email protected]

Мета-оптимизация популяционных алгоритмов многоцелевой оптимизации

Аннотация. Рассматриваются популяционные (эволюционные и роевые) алгоритмы многоцелевой оптимизации, которые основаны на предварительном построении конечномерной аппроксимации множества (а тем самым, и фронта) Парето этой задачи, называемые П-алгоритмами. Для оценки качества указанной конечно-мерной Парето-аппроксимации (П-аппроксимации) используют различные критерии (индикаторы) качества (П-индикаторы). В работе ставится задача структурной мета-оптимизации П-алгоритмов, которая предполагает одновременное построение П-аппроксимации и оптимизацию этой аппроксимации по одному или нескольким П-индикаторам.

Предлагается класс само-адаптивных методов решения указанной задачи мета-оптимизации. Применительно к одному из П-индикаторов общая идея предлагаемого подхода к синтезу методов мета-оптимизации заключается в модификации эволюционных операторов и/или итерационной формулы исходного (базового) П-алгоритма с использованием этого П-индикатора так, чтобы повысить качество получаемой П-аппроксимации с точки зрения данного индикатора. Подход основан на периодическом или квазипериодическом определении совокупности архивных точек, являющихся «притягивающими» для ближайших агентов текущей популяции.

Рассматриваются две стратегии реализации данного подхода: добавление в базовый П-алгоритм оператора кроссинговера (скрещивания), построенного на основе «притягивающей»

1 105005, г. Москва, ул. 2-я Бауманская, д. 5 1

точки; добавление в итерационную формулу того же алгоритма слагаемого, которое обеспечивает перемещение выбранного агента в направлении этой точки.

Ключевые слова: многокритериальная оптимизация; множество Парето; парето-аппроксимация; популяционные алгоритмы; фронт Парето; качество решения

Введение

Известно большое число алгоритмов решения задачи многоцелевой оптимизации (МЦО-задачи). Рассматриваем алгоритмы, основанные на предварительном построении аппроксимации множества (а тем самым, и фронта) Парето этой задачи [1]. Алгоритмы данного класса (П-алгоритмы), преимущественно, строят на основе эволюционных и, прежде всего, на основе генетических алгоритмов [2]. Обзор эволюционных П-алгоритмов представлен, например, в работах [3, 4]. Известно также большое число П-алгоритмов, построенных на основе алгоритмов роя частиц, колонии муравьев, медоносных пчел и т.д. [5 -7]. Под П-алгоритмами в работе понимаем популяционные алгоритмы, которые включают в себя эволюционные и роевые алгоритмы [8].

Оценку эффективности П-алгоритмов производят путем оценки качества полученной Парето аппроксимации (П-аппроксимации) и суммарных вычислительных затрат. На содержательном уровне качество П-аппроксимации может быть оценено с помощью следующих характеристик:

• близость найденных решений к точному множеству (фронту) Парето рассматриваемой МЦО-задачи;

• равномерность распределения решений в полученной П-аппроксимации;

• мощность найденного множества решений.

Для формализации указанных характеристик может быть использовано значительное число индикаторов качества П-аппроксимации (П-индикаторов) [9 - 11], так что задача оценки качества П-аппроксимации в общем случае сама является многоцелевой (многоиндикаторной).

Хорошо известна задача параметрической мета-оптимизации популяционных алгоритмов глобальной оптимизации, суть которой заключается в отыскании оптимальных в некотором смысле значений их свободных параметров [12]. По аналогии с этим определяют структурную и структурно-параметрическую мета-оптимизацию алгоритмов глобальной оптимизации [8]. По такой же логике говорим о задачах параметрической, структурной и структурно-параметрической мета-оптимизации П-алгоритмов (ММЦО-задачах).

Подобно работе [13] используем следующую классификацию методов решения ММЦО-задач. На верхнем уровне иерархии выделяем методы настройки и методы управления исходным (базовым) П-алгоритмом. Методы настройки предполагают выбор лучшего базового алгоритма путем решения ряда исходных (базовых) МЦО-задач данного класса с помощью исследуемого набора П-алгоритмов. Методы управления предусматривают решение ММЦО-задачи в процессе решения базовой МЦО-задачи и подразделяются на методы адаптивного и само-адаптивного управления. В методах адаптивного управления алгоритм мета-оптимизации надстраивается над базовым П-алгоритмом и использует в процессе свой работы информацию, получаемую в процессе функционирования последнего. Методы само-адаптивного управления (self-adaptive control) требуют модификации базового П-алгоритма так, чтобы одновременно с решением базовой задачи оптимизации модифицированный алгоритм решал и задачу мета-оптимизации. Рассматриваемые в работе

методы мета-оптимизации относятся к классу структурных само-адаптивных методов управления.

В современных П-алгоритмах задачу мета-оптимизации в неявной форме решают по отношению к индикаторам, формализующим требование равномерности распределения решений П-аппроксимации в целевом пространстве (требование равномерности покрытия). Работа имеет целью конструирование само-адаптивных П-алгоритмов, предназначенных для решения задачи мета-оптимизации, в которой мета-целями являются и другие П-индикаторы.

В первом разделе работы приводим постановки МЦО- и ММЦО-задач. Во втором разделе представляем используемые П-индикаторы. Основным является третий раздел работы, в котором изложены предлагаемые методы мета-оптимизации П-алгоритмов.

1. Постановка МЦО- и ММЦО-задач

fk (* X

Постановка МЦО-задачи. Совокупность частных целевых функций (целей)

к е И :| Г Ц г- . Г (X) е {Г} X е {X}

образует векторную целевую функцию , где - вектор

{X} {Г }

варьируемых параметров; 1 ' , ' - пространство параметров и целевое пространство

соответственно. Здесь и далее запись вида ^ I, где А — некоторый вектор или счетное множество, означает размерность этих объектов.

Рассматриваем задачу минимизации каждой из указанных частных целевых функций в

\х |

области допустимых значений вектора варьируемых параметров х . Множество

*

достижимости задачи обозначаем D F , фронт Парето - D F С D F С {F}, множество

*

Парето - D х е D х С {х} . Полагаем, что решением МЦО-задачи является конечно-мерная

~ *

аппроксимация D F фронта (а, тем самым, и множества) Парето этой задачи.

Результаты решения МЦО-задачи (П-аппроксимация), полагаем, накапливаются в

© © F0 е D

архивных множествах F, х, содержащих не доминируемые точки 1 F и

х © С D* 01 0 р 0 у 1 е [1 : 01]

соответствующие точки 1 х , где 1 1 - мощность множеств F, х; 1 1 .

Если не указано иное, то под множеством 0 далее понимаем множество 0 F .

В П-алгоритмах новые точки для архивов 0 F , 0 х «поставляет» популяция агентов

S = {s., i е [1 : \s I]} „ s. {х} X

1 1 1 . Текущие координаты агента i в пространстве поиска 1 ' равны i, а

{ F } F = F (X ) в пространстве - i i .

Постановка ММЦО-задачи. Вектор рассматриваемых П-индикаторов обозначаем

I (0) = (I (0), «е [1 : I/1]) I „ _ л,тл,гтт^л

« Ii, где « - индикатор с номером « . Формально ММЦО-задачу

записываем в виде

i F (X ) ^ min ,

I х е d y

\

I (0 ) ^ extr .

I х е Dх (!)

Первая из задач (1) формализует стремление ЛПР обеспечить широкое исследование

целевого пространства с тем, чтобы не были потеряны существенные фрагменты фронта

*

Парето ®р . Вторая задача формализует необходимость достижения высокого качества П-аппроксимации ® . Указанные цели ЛПР противоречивы и поэтому решение задачи ММЦО

(1) неизбежно является компромиссным с точки зрения целей ^ (Х и индикаторов 1 (® .

2. Используемые П-индикаторы

Выделяют два класса П-индикаторов - унарные и бинарные индикаторы [8, 11].

*

Бинарные индикаторы ориентированы на сравнение точного фронта Парето D F и архивного

множества © . Если иметь в виду П-алгоритмы, предназначенные для решения практически значимых МЦО-задач, то, очевидно, такие алгоритмы не могут строиться на основе П-индикаторов, использующих информацию о точном фронте Парето. Поэтому рассматриваем только унарные П-индикаторы, основными из которых являются следующие.

Среднее рассеяние (Spacing). Данный индикатор является мерой равномерности распределения архивных решений в целевом пространстве и определяется формулой

I, (© ) =

:-:- £ abs [d - d )

© - 1 j —1 '

^ min

(2)

d — min

где:

k e [1: j© |], k Ф j

F © , F©

jk

- минимальное манхеттоновское расстояние между

F .

решением j и остальными архивными решениями; d - среднее всех этих величин.

Максимальное рассеяние (Maximum Spread) также формализует равномерность покрытия и имеет вид, аналогичный (2):

ims (© ) —

£ max

j — 1 k e [1: j© |]

F © , F©

jk

^ min

Отклонение от равномерного распределения (Deviation from Uniform distribution), как и предыдущие индикаторы, определяет равномерность распределения архивных решений в целевом пространстве. Индикатор имеет вид

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

IDU (© ) — £

I© abs [d . - d )

j—1

©

где:

евклидово расстояние решения j до ближайшего из решений множества

© • d -

среднее этих величин.

Мощность множества решений (Overall Nondominated Vector Generation) 1ONVG (© )

© •

есть ни что иное, как число элементов множества

ionvg (© ) — © h" max

©

M

©

M

©

d

Объем объемлющего гиперкуба (Hypercube enClosing indicator) равен

If I IF I

ihc (© ) — (ihc x (© ) - ihc2 (© ))' 1 — (p - q )' 1

Ihc (© ) Ihc (© ) P — (p p p)

где величины 1 , 2 имеют смысл координат точек Q — (q, q,..., q )

целевого пространства, которая доминирует все архивные решения и которую доминируют все эти решения соответственно:

" " ^ — p

IHC ( © ) = max (p У F® , V j e [1 : I©

IHC2 ( © ) = min (Q X F© , V j e [1 : |© |] )= q

Q e R

Здесь отношение ^ есть отношение доминирования.

Протяженность (Dimensions Extent) IDE (©) имеет смысл протяженности архивного

множества © :

IDE ( © ) =

£ max

k , I e [1: j© |]

fj ( Xk© ) - f] ( )

^ max

3. Предлагаемые методы мета-оптимизации П-алгоритмов

Применительно к одному из П-индикаторов общая идея предлагаемого подхода к синтезу методов мета-оптимизации П-алгоритмов заключается в модификации эволюционных операторов и/или итерационной формулы базового П-алгоритма с использованием этого П-индикатора так, чтобы повысить качество получаемой П-аппроксимации с точки зрения данного индикатора. С помощью базового П-алгоритма формируем архивные множества

I Imin

© X ' © F достаточно большой мощности © . В последующих итерациях в эволюционные операторы и/или итерационную формулу базового П-алгоритма добавляем составляющие, сформированные на основе m точек текущих архивных множеств, которые являются наихудшими с точки зрения рассматриваемого П-индикатора. Эти составляющие призваны обеспечить движение агентов популяции в направлении, которое приводит к получению

I Imin

архивных точек, улучшающих значения рассматриваемого П-индикатора. Здесь I I , m - свободные параметры мета П-алгоритма соответственно.

Очевиден аналогичный подход к мета-оптимизации П-алгоритмов, использующий не притягивающие, но отталкивающие архивные решения.

I Imin

Путем подбора значений величин II , m ЛПР имеет возможность достичь требуемого баланса между широтой исследования целевого пространства и качеством П-

I Imin

аппроксимации. Увеличение значений I I приводит, очевидно, к более детальному исследованию целевого пространства, но может не обеспечить требуемое качество П-

аппроксимации. Б о льшие значения величины m вызывают обратный эффект - уменьшение

F

широты исследования целевого пространства и возможное повышение качества П-аппроксимации.

Одно-индикаторная задача мета-оптимизации. Пусть вектор индикаторов 1 (© )

Л I (©) а е [1 : I ]

включает в себя только один из указанных индикаторов а 4 , 1 1 , то есть

(И © £ ©)

рассматриваем вторую из ММЦО задач (1) как одно-индикаторную. Обозначаем 1 1

1 е [1 : |© |] _

одно из т архивных решений, являющихся худшим (в смысле индикатора 1 а (© ) ) на рассматриваемой итерации базового П-алгоритма. Агента текущей популяции £ ,

для которого это решение должно стать притягивающим, обозначаем 1 *.

Возможны две стратегии модификации базового П-алгоритма (а также их комбинация).

1) Добавление в базовый П-алгоритм оператора кроссинговера (скрещивания), построенного на основе координат притягивающей точки. Подчеркнем, что этот оператор может быть использован для модификации не только генетического, но и любого из популяционных П-алгоритмов.

2) Добавление в итерационную формулу базового П-алгоритма слагаемого вида

™ | (0; а ) © - X. )

И( ; ) 1 1 1 , (3)

обеспечивающего перемещение агента 1 * в пространстве параметров в направлении

И © т? © о

точки 1 , а в целевом пространстве - в направлении точки 1 . Здесь м - весовой коэффициент, определяющий величину влияния притягивающей точки на эволюцию агента

* и\х\(0; а) (И |х 1) „

1 ; 1 - I I -вектор независимых вещественных случайных чисел, равномерно

распределенных в интервале [ 0; а ], где а - положительное вещественное число; ® - символ прямого произведения векторов.

Вторая стратегия, на наш взгляд, является более гибкой, поскольку с помощью коэффициента м позволяет легко управлять «силой» притяжения агента 1 * точкой

(И ©, £ ©)

1 1 . Далее имеем в виду использование именно этой стратегии.

Обозначим произвольную меру расстояния в целевом пространстве как ( 1' к) . Идея метода мета-оптимизации для любого из представленного выше П-индикаторов, кроме

индикатора 1 оша (©), одинакова и состоит в следующем. В архиве © находим т решений

Р ©

1 , 1 е [1 ' т ], которые в наибольшей степени ухудшают значения индикатора 1 а (©). Для каждого из этих решений определяем в целевом пространстве п - 1 ближайших (в смысле

ц „ (•,•) \ { 5 1 ' 5 1 '•••' 5 1 } = £ 1 " о

расстояния п £ ) агентов 1 12 1 п 1 текущей популяции Л. С помощью того

£ . 5 .

или иного алгоритма селекции выбираем из множества 1 агента 1 *, для которого точку

( 3 ' 3 ^ объявляем притягивающей. Величина п является свободным параметром алгоритма.

Схема метода мета-оптимизации имеет следующий вид.

1) Вычисляем для текущего архивного множества ® значение индикатора 1 а (® ).

2) Поочередно исключаем из этого множества точки "3 , 3 е [1 : I® 1] и вычисляем

соответствующие значения индикатора а 'j а

I . = I ( © / F © )

а , j а 4 j 7

Iа , j j e [1 : © |]

3) Сортируем величины а'3, 11 в порядке ухудшения их значений и помещаем в список Ь . Для простоты записи положим, что решения в этом списке

II 1 и расположены в порядке а д , а '2,..., а' I® .

т? ®

/|\ тт " р 3 3 ^ [1 : т ] т

4) Для каждого из первых m решений 3 , ^ J списка L выполняем следующие действия.

, п ~ МР (£ ® , ) I е [1 : Ь I] „

4.1) Определяем расстояния р 3 , 1 1 и на этой основе сортируем

агентов текущей популяции в порядке возрастания указанного расстояния и помещаем в

Ь .

список

^ ^ Ь {^ , ^ ^ } = Ь

4.2) Выбираем из списка 3 первых п агентов 31 32 3.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Ь

4.3) С помощью используемого алгоритма селекции выбираем из набора 3 агента

s .

J *

Схема метода мета-оптимизации для индикатора IONVG ( ©) отличается от

f © j e [1 : m ]

рассмотренной схемы тем, что в качестве архивных точек j , используются

точки, расстояния ^ ' ^M между которыми минимальны. Заметим, что в результате могут ухудшиться значения П-индикаторов, которые формализуют равномерность покрытия.

Очевидна идея использовать значения индикатора IONVG ( ©) в условии окончания итераций базового П-алгоритма.

Рассмотренные методы мета-оптимизации предполагают использование статических

I Imin

значений своих свободных параметров I I , m , w ' n Можно предложить большое число вариантов этих методов, использующих динамические значения указанных параметров, когда они представляют собой некоторые функции номера текущей итерации t. Периодический или

min

" А © = © ( * )

квазипериодический характер функции 11 11 позволяет «включать» и

«выключать» процесс мета-оптимизации с ростом числа итераций. При использовании

- -и m = m ( t ) г

возрастающей функции автоматически обеспечивается доминирование цели

повышения качества П-аппроксимации на завершающих итерациях мета П-алгоритма.

Аналогичный эффект позволяет получить возрастающая функция ™ ™(1 ) . Функция

п = п (1 ), значения которой возрастают с увеличением числа итераций, диверсифицирует поиск на заключительных итерациях мета П-алгоритма.

Еще большие возможности по управлению процессом мета-оптимизации обеспечивают адаптивные правила изменения указанных свободных параметров. Вообще говоря, эти правила можно строить на основе всех рассматриваемых П-индикаторов, а также на основе различных характеристик популяции (параметров ниш, например).

Много-индикаторная задача мета-оптимизации. Перейдем к рассмотрению

ситуации, когда вектор индикаторов 1 (© ) включает в себя более одного индикатора ( > 1), то есть рассмотрим вторую из ММЦО задач (1) как много-индикаторную. Введем следующие

обозначения: (Ха©1' 1 ), а е [1 : I1, 1 е [1 : I© - одно из т архивных решений, являющихся худшим на рассматриваемой итерации базового П-алгоритма с точки зрения П-

I (©) Л 5 = 5 (t)

индикатора а . Агента популяции у 7, для которого это решение станет

притягивающим, обозначаем а'1 *.

В этих обозначениях по аналогии с выражением (3) в итерационную формулу мета П-алгоритма следует включить слагаемое вида

У ^ Щ |(0; а ) ® (X © . - X .)

' а X ау \ а , 1 а , 1 * /

а = 1

Здесь ™а - весовой коэффициент, определяющий величину влияния притягивающей

~ & £ &

(X .' ^ .) ^

точки а'1 а'1 на эволюцию агента а'1 *, а остальные обозначения совпадают с

соответствующими обозначениями в (2).

Схема много-индикаторного метода отличается от рассмотренной выше схемы одно-индикаторного метода тем, что указанные там задачи приходится последовательно решать для

I (© ) а е [1 : Ы каждого из индикаторов а 4 , 11

Заключение

Можно предложить варианты представленных мета П-алгоритмов, основанные на модификации фитнесс-функции агентов популяции путем добавления в эту функцию слагаемых, формализующих расстояния соответствующего агента до притягивающих точек.

Известно значительное число унарных П-индикаторов [14], отличных от рассмотренных в работе. Представленный подход к решению задачи мета-оптимизации П-алгоритмов может быть использован и для этих индикаторов.

Поскольку ММЦО-задача является многоцелевой, она, как и исходная МЦО-задача, относится к классу плохо формализованных задач. Решение таких задач является принципиально субъективным, определяемым, в конечном счете ЛПР [15]. Поэтому перспективной является разработка интерактивных вариантов предложенных в работе мета П-алгоритмов.

Поскольку практически значимые МЦО-задачи имеют высокую вычислительную сложность и требуют использования для своего решения параллельных вычислительных систем, представляется актуальной разработка параллельных вариантов предложенных мета П-алгоритмов, ориентированных на различные классы таких систем.

ЛИТЕРАТУРА

1. Подиновский В.В., Ногин В.Д. Парето-оптимальные решения многокритериальных задач. - М.: Физматлит. - 2007. - 256 с.

2. Fonseca C.M., Fleming P.J. Genetic Algorithms for Multiobjective Optimization: Formulation, Discussion and Generalization / Proc. of the 5th International Conference on Genetic Algorithms, San Mateo, California. - 1993. - pp. 416-423.

3. Карпенко А.П., Митина Е.В., Семенихин А.С. Популяционные методы аппроксимации множества Паретов в задаче многокритериальной оптимизации // Наука и образование: электронное научно-техническое издание. - 2012. - №4 (http://www.technomag.edu.ru/doc/363023.html).

4. Guliashki V., Toshev H., Korsemov Ch. Survey of Evolutionary Algorithms Used in Multiobjective Optimization // Problems of Engineering Cybernetics and Robotics. -2009. - Vol. 60. - pp. 42 - 54.

5. Coello C.A., Lechuga M.S. MOPSO: A proposal for multiple objective particle swarm optimization / In IEEE Proceedings, World Congress on Computational Inelligence (CEC2002). - 2002. - pp. 1051-1056.

6. Карпенко А.П., Чернобривченко К.А. Эффективность оптимизации методом непрерывно взаимодействующей колонии муравьев (CIAC) // Наука и образование: электронное научно-техническое издание. - 2011. - №2 (http://technomag.edu.ru/doc/165551.html).

7. Гришин А.А., Карпенко А.П. Исследование эффективности метода пчелиного роя в задаче глобальной оптимизации // Наука и образование: электронное научно-техническое издание. - 2010. - №8 (http://technomag.edu.ru/doc/154050. html).

8. А.П. Карпенко Современные алгоритмы поисковой оптимизации. Алгоритмы вдохновленные природой / А.П. Карпенко. - Москва: Издательство МГТУ им. Н.Э. Баумана. - 2014. - 446 с.

9. Zitzler E., Deb K., Thiele L. Comparison of Multiobjective Evolutionary Algorithms: Empirical Results // Evolutionary Computation. - 2000. - Vol. 8(2). - pp. 173-195.

10. Zitzler E., Thiele L., Marco Laumanns M., Fonseca C.M., da Fonseca V.G. Performance Assessment of Multiobjective Optimizers: An Analysis and Review // IEEE Transactions of Evolutionary Computation. - 2003. -Vol. 7(2). - pp. 117-132.

11. Knowles J., Corne D. On metrics for comparing nondominated sets / In: Evolutionary Computation 2002 (CEC '02). Proceedings of the 2002 Congress on. - 2002. - Vol. 1. -pp. 711-716.

12. Michalewicz Z., Hinterding R., Eiben A.E. Parameter Selection. Evolutionary Optimization. - New York: Springer. - 2003. - Vol. 48. - No. 11. - pp. 279-306.

13. Eiben A.E., Michalewicz Z., Schoenauer M., Smith J.E. Parameter Control in Evolutionary Algorithms / Parameter Setting in Evolutionary Algorithms, Springer Verlag. - 2007. - pp. 19-46.

14. Guliashki V., Toshev H., Korsemov Ch. Survey of Evolutionary Algorithms Used in Multiobjective Optimization // Problems of Engineering Cybernetics and Robotics. -2009. - Vol. 60. - pp. 42 - 54.

15. Ларичев О.И. Теория и методы принятия решений: Учебник для ВУЗов. - М.: Университетская книга, Логос. - 2006. - 392 с.

Groshev Sergey Vladimirovich

Bauman Moscow state technical university, Russia, Moscow

E-mail: [email protected]

Karpenko Anatoly Pavlovich

Bauman Moscow state technical university, Russia, Moscow

E-mail: [email protected]

Meta-optimization of populations algorithms in multipurpose optimization

Abstract. We consider the population (evolutionary and swarms) algorithms for multi-objective optimization, which are based on pre-constructed finite-dimensional approximation of (and thus, and front) Pareto this problem, called the P-algorithms. To assess the quality of this course-dimensional Pareto-approximation (P-approximation) use different criteria (indicators) quality (P-indicators). In this work we seeks to optimize the structural meta-P algorithms, which involves the simultaneous construction of the P-approximation and optimization of the approximation for one or more P-indicators.

Proposed class of self-adaptive methods for solving this problem of meta-optimization. With regard to one of the P-indicators the general idea of the proposed approach to the synthesis methods of meta-optimization is to modify the evolutionary operators and/or iterative formula initial (base) P-algorithm using this P-indicator as to improve the quality of the resulting P-apprximation from the viewpoint of approximation of the indicator. The approach is based on a periodic or quasi-periodic determination of the aggregate history points that are "attracting" for the nearest agent of the current population.

We consider two strategies for the implementation of this approach: Added to the base-set P-operator algorithm crossover (cross-breeding), builded on the basis of "attractive" terms; adding to the same formula iterative algorithm term, which moves the selected agent toward that point.

Keywords: multicriteria optimization; Pareto set; Pareto approximation; population-based algorithms; Pareto Front; quality of solution

i Надоели баннеры? Вы всегда можете отключить рекламу.