Интернет-журнал «Науковедение» ISSN 2223-5167 http ://naukovedenie.ru/
Том 8, №6 (2016) http ://naukovedenie.ru/vol8-6 .php
URL статьи: http://naukovedenie.ru/PDF/52TVN616.pdf
DOI: 10.15862/52TVN616 (http://dx.doi.org/10.15862/52TVN616)
Статья опубликована 13.12.2016
Ссылка для цитирования этой статьи:
Грошев С.В., Карпенко А.П. Мета-оптимизация популяционных алгоритмов многоцелевой оптимизации // Интернет-журнал «НАУКОВЕДЕНИЕ» Том 8, №6 (2016) http://naukovedenie.ru/PDF/52TVN616.pdf (доступ свободный). Загл. с экрана. Яз. рус., англ.
Работа поддержана РФФИ (проекты № 16-07-00287, 15-07-01764) УДК 519.6
Грошев Сергей Владимирович
ФГБОУ «Московский Государственный технический университет им. Н.Э. Баумана», Россия, Москва1 Старший преподаватель кафедры «Системы автоматизированного проектирования»
E-mail: [email protected]
Карпенко Анатолий Павлович
ФГБОУ «Московский Государственный технический университет им. Н.Э. Баумана», Россия, Москва
Зав. кафедрой «Системы автоматизированного проектирования» Доктор физико-математических наук, профессор E-mail: [email protected]
Мета-оптимизация популяционных алгоритмов многоцелевой оптимизации
Аннотация. Рассматриваются популяционные (эволюционные и роевые) алгоритмы многоцелевой оптимизации, которые основаны на предварительном построении конечномерной аппроксимации множества (а тем самым, и фронта) Парето этой задачи, называемые П-алгоритмами. Для оценки качества указанной конечно-мерной Парето-аппроксимации (П-аппроксимации) используют различные критерии (индикаторы) качества (П-индикаторы). В работе ставится задача структурной мета-оптимизации П-алгоритмов, которая предполагает одновременное построение П-аппроксимации и оптимизацию этой аппроксимации по одному или нескольким П-индикаторам.
Предлагается класс само-адаптивных методов решения указанной задачи мета-оптимизации. Применительно к одному из П-индикаторов общая идея предлагаемого подхода к синтезу методов мета-оптимизации заключается в модификации эволюционных операторов и/или итерационной формулы исходного (базового) П-алгоритма с использованием этого П-индикатора так, чтобы повысить качество получаемой П-аппроксимации с точки зрения данного индикатора. Подход основан на периодическом или квазипериодическом определении совокупности архивных точек, являющихся «притягивающими» для ближайших агентов текущей популяции.
Рассматриваются две стратегии реализации данного подхода: добавление в базовый П-алгоритм оператора кроссинговера (скрещивания), построенного на основе «притягивающей»
1 105005, г. Москва, ул. 2-я Бауманская, д. 5 1
точки; добавление в итерационную формулу того же алгоритма слагаемого, которое обеспечивает перемещение выбранного агента в направлении этой точки.
Ключевые слова: многокритериальная оптимизация; множество Парето; парето-аппроксимация; популяционные алгоритмы; фронт Парето; качество решения
Введение
Известно большое число алгоритмов решения задачи многоцелевой оптимизации (МЦО-задачи). Рассматриваем алгоритмы, основанные на предварительном построении аппроксимации множества (а тем самым, и фронта) Парето этой задачи [1]. Алгоритмы данного класса (П-алгоритмы), преимущественно, строят на основе эволюционных и, прежде всего, на основе генетических алгоритмов [2]. Обзор эволюционных П-алгоритмов представлен, например, в работах [3, 4]. Известно также большое число П-алгоритмов, построенных на основе алгоритмов роя частиц, колонии муравьев, медоносных пчел и т.д. [5 -7]. Под П-алгоритмами в работе понимаем популяционные алгоритмы, которые включают в себя эволюционные и роевые алгоритмы [8].
Оценку эффективности П-алгоритмов производят путем оценки качества полученной Парето аппроксимации (П-аппроксимации) и суммарных вычислительных затрат. На содержательном уровне качество П-аппроксимации может быть оценено с помощью следующих характеристик:
• близость найденных решений к точному множеству (фронту) Парето рассматриваемой МЦО-задачи;
• равномерность распределения решений в полученной П-аппроксимации;
• мощность найденного множества решений.
Для формализации указанных характеристик может быть использовано значительное число индикаторов качества П-аппроксимации (П-индикаторов) [9 - 11], так что задача оценки качества П-аппроксимации в общем случае сама является многоцелевой (многоиндикаторной).
Хорошо известна задача параметрической мета-оптимизации популяционных алгоритмов глобальной оптимизации, суть которой заключается в отыскании оптимальных в некотором смысле значений их свободных параметров [12]. По аналогии с этим определяют структурную и структурно-параметрическую мета-оптимизацию алгоритмов глобальной оптимизации [8]. По такой же логике говорим о задачах параметрической, структурной и структурно-параметрической мета-оптимизации П-алгоритмов (ММЦО-задачах).
Подобно работе [13] используем следующую классификацию методов решения ММЦО-задач. На верхнем уровне иерархии выделяем методы настройки и методы управления исходным (базовым) П-алгоритмом. Методы настройки предполагают выбор лучшего базового алгоритма путем решения ряда исходных (базовых) МЦО-задач данного класса с помощью исследуемого набора П-алгоритмов. Методы управления предусматривают решение ММЦО-задачи в процессе решения базовой МЦО-задачи и подразделяются на методы адаптивного и само-адаптивного управления. В методах адаптивного управления алгоритм мета-оптимизации надстраивается над базовым П-алгоритмом и использует в процессе свой работы информацию, получаемую в процессе функционирования последнего. Методы само-адаптивного управления (self-adaptive control) требуют модификации базового П-алгоритма так, чтобы одновременно с решением базовой задачи оптимизации модифицированный алгоритм решал и задачу мета-оптимизации. Рассматриваемые в работе
методы мета-оптимизации относятся к классу структурных само-адаптивных методов управления.
В современных П-алгоритмах задачу мета-оптимизации в неявной форме решают по отношению к индикаторам, формализующим требование равномерности распределения решений П-аппроксимации в целевом пространстве (требование равномерности покрытия). Работа имеет целью конструирование само-адаптивных П-алгоритмов, предназначенных для решения задачи мета-оптимизации, в которой мета-целями являются и другие П-индикаторы.
В первом разделе работы приводим постановки МЦО- и ММЦО-задач. Во втором разделе представляем используемые П-индикаторы. Основным является третий раздел работы, в котором изложены предлагаемые методы мета-оптимизации П-алгоритмов.
1. Постановка МЦО- и ММЦО-задач
fk (* X
Постановка МЦО-задачи. Совокупность частных целевых функций (целей)
к е И :| Г Ц г- . Г (X) е {Г} X е {X}
образует векторную целевую функцию , где - вектор
{X} {Г }
варьируемых параметров; 1 ' , ' - пространство параметров и целевое пространство
соответственно. Здесь и далее запись вида ^ I, где А — некоторый вектор или счетное множество, означает размерность этих объектов.
Рассматриваем задачу минимизации каждой из указанных частных целевых функций в
\х |
области допустимых значений вектора варьируемых параметров х . Множество
*
достижимости задачи обозначаем D F , фронт Парето - D F С D F С {F}, множество
*
Парето - D х е D х С {х} . Полагаем, что решением МЦО-задачи является конечно-мерная
~ *
аппроксимация D F фронта (а, тем самым, и множества) Парето этой задачи.
Результаты решения МЦО-задачи (П-аппроксимация), полагаем, накапливаются в
© © F0 е D
архивных множествах F, х, содержащих не доминируемые точки 1 F и
х © С D* 01 0 р 0 у 1 е [1 : 01]
соответствующие точки 1 х , где 1 1 - мощность множеств F, х; 1 1 .
Если не указано иное, то под множеством 0 далее понимаем множество 0 F .
В П-алгоритмах новые точки для архивов 0 F , 0 х «поставляет» популяция агентов
S = {s., i е [1 : \s I]} „ s. {х} X
1 1 1 . Текущие координаты агента i в пространстве поиска 1 ' равны i, а
{ F } F = F (X ) в пространстве - i i .
Постановка ММЦО-задачи. Вектор рассматриваемых П-индикаторов обозначаем
I (0) = (I (0), «е [1 : I/1]) I „ _ л,тл,гтт^л
« Ii, где « - индикатор с номером « . Формально ММЦО-задачу
записываем в виде
i F (X ) ^ min ,
I х е d y
\
I (0 ) ^ extr .
I х е Dх (!)
Первая из задач (1) формализует стремление ЛПР обеспечить широкое исследование
целевого пространства с тем, чтобы не были потеряны существенные фрагменты фронта
*
Парето ®р . Вторая задача формализует необходимость достижения высокого качества П-аппроксимации ® . Указанные цели ЛПР противоречивы и поэтому решение задачи ММЦО
(1) неизбежно является компромиссным с точки зрения целей ^ (Х и индикаторов 1 (® .
2. Используемые П-индикаторы
Выделяют два класса П-индикаторов - унарные и бинарные индикаторы [8, 11].
*
Бинарные индикаторы ориентированы на сравнение точного фронта Парето D F и архивного
множества © . Если иметь в виду П-алгоритмы, предназначенные для решения практически значимых МЦО-задач, то, очевидно, такие алгоритмы не могут строиться на основе П-индикаторов, использующих информацию о точном фронте Парето. Поэтому рассматриваем только унарные П-индикаторы, основными из которых являются следующие.
Среднее рассеяние (Spacing). Данный индикатор является мерой равномерности распределения архивных решений в целевом пространстве и определяется формулой
I, (© ) =
:-:- £ abs [d - d )
© - 1 j —1 '
^ min
(2)
d — min
где:
k e [1: j© |], k Ф j
F © , F©
jk
- минимальное манхеттоновское расстояние между
F .
решением j и остальными архивными решениями; d - среднее всех этих величин.
Максимальное рассеяние (Maximum Spread) также формализует равномерность покрытия и имеет вид, аналогичный (2):
ims (© ) —
£ max
j — 1 k e [1: j© |]
F © , F©
jk
^ min
Отклонение от равномерного распределения (Deviation from Uniform distribution), как и предыдущие индикаторы, определяет равномерность распределения архивных решений в целевом пространстве. Индикатор имеет вид
IDU (© ) — £
I© abs [d . - d )
j—1
©
где:
евклидово расстояние решения j до ближайшего из решений множества
© • d -
среднее этих величин.
Мощность множества решений (Overall Nondominated Vector Generation) 1ONVG (© )
© •
есть ни что иное, как число элементов множества
ionvg (© ) — © h" max
©
M
©
M
©
d
Объем объемлющего гиперкуба (Hypercube enClosing indicator) равен
If I IF I
ihc (© ) — (ihc x (© ) - ihc2 (© ))' 1 — (p - q )' 1
Ihc (© ) Ihc (© ) P — (p p p)
где величины 1 , 2 имеют смысл координат точек Q — (q, q,..., q )
целевого пространства, которая доминирует все архивные решения и которую доминируют все эти решения соответственно:
" " ^ — p
IHC ( © ) = max (p У F® , V j e [1 : I©
IHC2 ( © ) = min (Q X F© , V j e [1 : |© |] )= q
Q e R
Здесь отношение ^ есть отношение доминирования.
Протяженность (Dimensions Extent) IDE (©) имеет смысл протяженности архивного
множества © :
IDE ( © ) =
£ max
k , I e [1: j© |]
fj ( Xk© ) - f] ( )
^ max
3. Предлагаемые методы мета-оптимизации П-алгоритмов
Применительно к одному из П-индикаторов общая идея предлагаемого подхода к синтезу методов мета-оптимизации П-алгоритмов заключается в модификации эволюционных операторов и/или итерационной формулы базового П-алгоритма с использованием этого П-индикатора так, чтобы повысить качество получаемой П-аппроксимации с точки зрения данного индикатора. С помощью базового П-алгоритма формируем архивные множества
I Imin
© X ' © F достаточно большой мощности © . В последующих итерациях в эволюционные операторы и/или итерационную формулу базового П-алгоритма добавляем составляющие, сформированные на основе m точек текущих архивных множеств, которые являются наихудшими с точки зрения рассматриваемого П-индикатора. Эти составляющие призваны обеспечить движение агентов популяции в направлении, которое приводит к получению
I Imin
архивных точек, улучшающих значения рассматриваемого П-индикатора. Здесь I I , m - свободные параметры мета П-алгоритма соответственно.
Очевиден аналогичный подход к мета-оптимизации П-алгоритмов, использующий не притягивающие, но отталкивающие архивные решения.
I Imin
Путем подбора значений величин II , m ЛПР имеет возможность достичь требуемого баланса между широтой исследования целевого пространства и качеством П-
I Imin
аппроксимации. Увеличение значений I I приводит, очевидно, к более детальному исследованию целевого пространства, но может не обеспечить требуемое качество П-
аппроксимации. Б о льшие значения величины m вызывают обратный эффект - уменьшение
F
широты исследования целевого пространства и возможное повышение качества П-аппроксимации.
Одно-индикаторная задача мета-оптимизации. Пусть вектор индикаторов 1 (© )
Л I (©) а е [1 : I ]
включает в себя только один из указанных индикаторов а 4 , 1 1 , то есть
(И © £ ©)
рассматриваем вторую из ММЦО задач (1) как одно-индикаторную. Обозначаем 1 1
1 е [1 : |© |] _
одно из т архивных решений, являющихся худшим (в смысле индикатора 1 а (© ) ) на рассматриваемой итерации базового П-алгоритма. Агента текущей популяции £ ,
для которого это решение должно стать притягивающим, обозначаем 1 *.
Возможны две стратегии модификации базового П-алгоритма (а также их комбинация).
1) Добавление в базовый П-алгоритм оператора кроссинговера (скрещивания), построенного на основе координат притягивающей точки. Подчеркнем, что этот оператор может быть использован для модификации не только генетического, но и любого из популяционных П-алгоритмов.
2) Добавление в итерационную формулу базового П-алгоритма слагаемого вида
™ | (0; а ) © - X. )
И( ; ) 1 1 1 , (3)
обеспечивающего перемещение агента 1 * в пространстве параметров в направлении
И © т? © о
точки 1 , а в целевом пространстве - в направлении точки 1 . Здесь м - весовой коэффициент, определяющий величину влияния притягивающей точки на эволюцию агента
* и\х\(0; а) (И |х 1) „
1 ; 1 - I I -вектор независимых вещественных случайных чисел, равномерно
распределенных в интервале [ 0; а ], где а - положительное вещественное число; ® - символ прямого произведения векторов.
Вторая стратегия, на наш взгляд, является более гибкой, поскольку с помощью коэффициента м позволяет легко управлять «силой» притяжения агента 1 * точкой
(И ©, £ ©)
1 1 . Далее имеем в виду использование именно этой стратегии.
Обозначим произвольную меру расстояния в целевом пространстве как ( 1' к) . Идея метода мета-оптимизации для любого из представленного выше П-индикаторов, кроме
индикатора 1 оша (©), одинакова и состоит в следующем. В архиве © находим т решений
Р ©
1 , 1 е [1 ' т ], которые в наибольшей степени ухудшают значения индикатора 1 а (©). Для каждого из этих решений определяем в целевом пространстве п - 1 ближайших (в смысле
ц „ (•,•) \ { 5 1 ' 5 1 '•••' 5 1 } = £ 1 " о
расстояния п £ ) агентов 1 12 1 п 1 текущей популяции Л. С помощью того
£ . 5 .
или иного алгоритма селекции выбираем из множества 1 агента 1 *, для которого точку
( 3 ' 3 ^ объявляем притягивающей. Величина п является свободным параметром алгоритма.
Схема метода мета-оптимизации имеет следующий вид.
1) Вычисляем для текущего архивного множества ® значение индикатора 1 а (® ).
2) Поочередно исключаем из этого множества точки "3 , 3 е [1 : I® 1] и вычисляем
соответствующие значения индикатора а 'j а
I . = I ( © / F © )
а , j а 4 j 7
Iа , j j e [1 : © |]
3) Сортируем величины а'3, 11 в порядке ухудшения их значений и помещаем в список Ь . Для простоты записи положим, что решения в этом списке
II 1 и расположены в порядке а д , а '2,..., а' I® .
т? ®
/|\ тт " р 3 3 ^ [1 : т ] т
4) Для каждого из первых m решений 3 , ^ J списка L выполняем следующие действия.
, п ~ МР (£ ® , ) I е [1 : Ь I] „
4.1) Определяем расстояния р 3 , 1 1 и на этой основе сортируем
агентов текущей популяции в порядке возрастания указанного расстояния и помещаем в
Ь .
список
^ ^ Ь {^ , ^ ^ } = Ь
4.2) Выбираем из списка 3 первых п агентов 31 32 3.
Ь
4.3) С помощью используемого алгоритма селекции выбираем из набора 3 агента
s .
J *
Схема метода мета-оптимизации для индикатора IONVG ( ©) отличается от
f © j e [1 : m ]
рассмотренной схемы тем, что в качестве архивных точек j , используются
точки, расстояния ^ ' ^M между которыми минимальны. Заметим, что в результате могут ухудшиться значения П-индикаторов, которые формализуют равномерность покрытия.
Очевидна идея использовать значения индикатора IONVG ( ©) в условии окончания итераций базового П-алгоритма.
Рассмотренные методы мета-оптимизации предполагают использование статических
I Imin
значений своих свободных параметров I I , m , w ' n Можно предложить большое число вариантов этих методов, использующих динамические значения указанных параметров, когда они представляют собой некоторые функции номера текущей итерации t. Периодический или
min
" А © = © ( * )
квазипериодический характер функции 11 11 позволяет «включать» и
«выключать» процесс мета-оптимизации с ростом числа итераций. При использовании
- -и m = m ( t ) г
возрастающей функции автоматически обеспечивается доминирование цели
повышения качества П-аппроксимации на завершающих итерациях мета П-алгоритма.
Аналогичный эффект позволяет получить возрастающая функция ™ ™(1 ) . Функция
п = п (1 ), значения которой возрастают с увеличением числа итераций, диверсифицирует поиск на заключительных итерациях мета П-алгоритма.
Еще большие возможности по управлению процессом мета-оптимизации обеспечивают адаптивные правила изменения указанных свободных параметров. Вообще говоря, эти правила можно строить на основе всех рассматриваемых П-индикаторов, а также на основе различных характеристик популяции (параметров ниш, например).
Много-индикаторная задача мета-оптимизации. Перейдем к рассмотрению
ситуации, когда вектор индикаторов 1 (© ) включает в себя более одного индикатора ( > 1), то есть рассмотрим вторую из ММЦО задач (1) как много-индикаторную. Введем следующие
обозначения: (Ха©1' 1 ), а е [1 : I1, 1 е [1 : I© - одно из т архивных решений, являющихся худшим на рассматриваемой итерации базового П-алгоритма с точки зрения П-
I (©) Л 5 = 5 (t)
индикатора а . Агента популяции у 7, для которого это решение станет
притягивающим, обозначаем а'1 *.
В этих обозначениях по аналогии с выражением (3) в итерационную формулу мета П-алгоритма следует включить слагаемое вида
У ^ Щ |(0; а ) ® (X © . - X .)
' а X ау \ а , 1 а , 1 * /
а = 1
Здесь ™а - весовой коэффициент, определяющий величину влияния притягивающей
~ & £ &
(X .' ^ .) ^
точки а'1 а'1 на эволюцию агента а'1 *, а остальные обозначения совпадают с
соответствующими обозначениями в (2).
Схема много-индикаторного метода отличается от рассмотренной выше схемы одно-индикаторного метода тем, что указанные там задачи приходится последовательно решать для
I (© ) а е [1 : Ы каждого из индикаторов а 4 , 11
Заключение
Можно предложить варианты представленных мета П-алгоритмов, основанные на модификации фитнесс-функции агентов популяции путем добавления в эту функцию слагаемых, формализующих расстояния соответствующего агента до притягивающих точек.
Известно значительное число унарных П-индикаторов [14], отличных от рассмотренных в работе. Представленный подход к решению задачи мета-оптимизации П-алгоритмов может быть использован и для этих индикаторов.
Поскольку ММЦО-задача является многоцелевой, она, как и исходная МЦО-задача, относится к классу плохо формализованных задач. Решение таких задач является принципиально субъективным, определяемым, в конечном счете ЛПР [15]. Поэтому перспективной является разработка интерактивных вариантов предложенных в работе мета П-алгоритмов.
Поскольку практически значимые МЦО-задачи имеют высокую вычислительную сложность и требуют использования для своего решения параллельных вычислительных систем, представляется актуальной разработка параллельных вариантов предложенных мета П-алгоритмов, ориентированных на различные классы таких систем.
ЛИТЕРАТУРА
1. Подиновский В.В., Ногин В.Д. Парето-оптимальные решения многокритериальных задач. - М.: Физматлит. - 2007. - 256 с.
2. Fonseca C.M., Fleming P.J. Genetic Algorithms for Multiobjective Optimization: Formulation, Discussion and Generalization / Proc. of the 5th International Conference on Genetic Algorithms, San Mateo, California. - 1993. - pp. 416-423.
3. Карпенко А.П., Митина Е.В., Семенихин А.С. Популяционные методы аппроксимации множества Паретов в задаче многокритериальной оптимизации // Наука и образование: электронное научно-техническое издание. - 2012. - №4 (http://www.technomag.edu.ru/doc/363023.html).
4. Guliashki V., Toshev H., Korsemov Ch. Survey of Evolutionary Algorithms Used in Multiobjective Optimization // Problems of Engineering Cybernetics and Robotics. -2009. - Vol. 60. - pp. 42 - 54.
5. Coello C.A., Lechuga M.S. MOPSO: A proposal for multiple objective particle swarm optimization / In IEEE Proceedings, World Congress on Computational Inelligence (CEC2002). - 2002. - pp. 1051-1056.
6. Карпенко А.П., Чернобривченко К.А. Эффективность оптимизации методом непрерывно взаимодействующей колонии муравьев (CIAC) // Наука и образование: электронное научно-техническое издание. - 2011. - №2 (http://technomag.edu.ru/doc/165551.html).
7. Гришин А.А., Карпенко А.П. Исследование эффективности метода пчелиного роя в задаче глобальной оптимизации // Наука и образование: электронное научно-техническое издание. - 2010. - №8 (http://technomag.edu.ru/doc/154050. html).
8. А.П. Карпенко Современные алгоритмы поисковой оптимизации. Алгоритмы вдохновленные природой / А.П. Карпенко. - Москва: Издательство МГТУ им. Н.Э. Баумана. - 2014. - 446 с.
9. Zitzler E., Deb K., Thiele L. Comparison of Multiobjective Evolutionary Algorithms: Empirical Results // Evolutionary Computation. - 2000. - Vol. 8(2). - pp. 173-195.
10. Zitzler E., Thiele L., Marco Laumanns M., Fonseca C.M., da Fonseca V.G. Performance Assessment of Multiobjective Optimizers: An Analysis and Review // IEEE Transactions of Evolutionary Computation. - 2003. -Vol. 7(2). - pp. 117-132.
11. Knowles J., Corne D. On metrics for comparing nondominated sets / In: Evolutionary Computation 2002 (CEC '02). Proceedings of the 2002 Congress on. - 2002. - Vol. 1. -pp. 711-716.
12. Michalewicz Z., Hinterding R., Eiben A.E. Parameter Selection. Evolutionary Optimization. - New York: Springer. - 2003. - Vol. 48. - No. 11. - pp. 279-306.
13. Eiben A.E., Michalewicz Z., Schoenauer M., Smith J.E. Parameter Control in Evolutionary Algorithms / Parameter Setting in Evolutionary Algorithms, Springer Verlag. - 2007. - pp. 19-46.
14. Guliashki V., Toshev H., Korsemov Ch. Survey of Evolutionary Algorithms Used in Multiobjective Optimization // Problems of Engineering Cybernetics and Robotics. -2009. - Vol. 60. - pp. 42 - 54.
15. Ларичев О.И. Теория и методы принятия решений: Учебник для ВУЗов. - М.: Университетская книга, Логос. - 2006. - 392 с.
Groshev Sergey Vladimirovich
Bauman Moscow state technical university, Russia, Moscow
E-mail: [email protected]
Karpenko Anatoly Pavlovich
Bauman Moscow state technical university, Russia, Moscow
E-mail: [email protected]
Meta-optimization of populations algorithms in multipurpose optimization
Abstract. We consider the population (evolutionary and swarms) algorithms for multi-objective optimization, which are based on pre-constructed finite-dimensional approximation of (and thus, and front) Pareto this problem, called the P-algorithms. To assess the quality of this course-dimensional Pareto-approximation (P-approximation) use different criteria (indicators) quality (P-indicators). In this work we seeks to optimize the structural meta-P algorithms, which involves the simultaneous construction of the P-approximation and optimization of the approximation for one or more P-indicators.
Proposed class of self-adaptive methods for solving this problem of meta-optimization. With regard to one of the P-indicators the general idea of the proposed approach to the synthesis methods of meta-optimization is to modify the evolutionary operators and/or iterative formula initial (base) P-algorithm using this P-indicator as to improve the quality of the resulting P-apprximation from the viewpoint of approximation of the indicator. The approach is based on a periodic or quasi-periodic determination of the aggregate history points that are "attracting" for the nearest agent of the current population.
We consider two strategies for the implementation of this approach: Added to the base-set P-operator algorithm crossover (cross-breeding), builded on the basis of "attractive" terms; adding to the same formula iterative algorithm term, which moves the selected agent toward that point.
Keywords: multicriteria optimization; Pareto set; Pareto approximation; population-based algorithms; Pareto Front; quality of solution