Научная статья на тему 'Вероятностный генетический алгоритм решения сложных задач многокритериальной оптимизации с адаптивной мутацией и прогнозом множества Парето'

Вероятностный генетический алгоритм решения сложных задач многокритериальной оптимизации с адаптивной мутацией и прогнозом множества Парето Текст научной статьи по специальности «Математика»

CC BY
1050
203
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
МНОГОКРИТЕРИАЛЬНАЯ ОПТИМИЗАЦИЯ / ЭВОЛЮЦИОННЫЕ АЛГОРИТМЫ / ВЕРОЯТНОСТНЫЙ ГЕНЕТИЧЕСКИЙ АЛГОРИТМ / АДАПТИВНАЯ МУТАЦИЯ / MULTIOBJECTIVE OPTIMIZATION / EVOLUTIONARY ALGORITHMS / PROBABILITYS-BASED GA / ADAPTIVE MUTATION

Аннотация научной статьи по математике, автор научной работы — Сопов Евгений Александрович, Сопов Сергей Александрович

В статье представлен новый алгоритм решения сложных задач условной многокритериальной оптимизации, построенный на базе вероятностного генетического алгоритма. Предложена эффективная модификация алгоритма с адаптивной мутацией и прогнозом множества Парето, позволяющая получать решения задач при меньшем использовании вычислительного ресурса. Представлены результаты исследования эффективности подхода в сравнении со стандартным генетическим алгоритмом.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

PROBABILITY-BASED GENETIC ALGORITHM FOR SOLVING COMPLEX MULTIOBJECTIVE OPTIMIZATION TASKS USING ADAPTIVE MUTATION OPERATOR AND PARETO SET PREDICTION

The article is devoted to a new algorithm for solving complex constrained multiobjective optimization tasks on the basis of probability-based GA. An efficient modification of the algorithm using adaptive mutation and Pareto set prediction is proposed. The results of efficiency investigation are presented.

Текст научной работы на тему «Вероятностный генетический алгоритм решения сложных задач многокритериальной оптимизации с адаптивной мутацией и прогнозом множества Парето»

УДК 519.68

ВЕРОЯТНОСТНЫЙ ГЕНЕТИЧЕСКИЙ АЛГОРИТМ РЕШЕНИЯ СЛОЖНЫХ ЗАДАЧ МНОГОКРИТЕРИАЛЬНОЙ ОПТИМИЗАЦИИ

С АДАПТИВНОЙ МУТАЦИЕЙ И ПРОГНОЗОМ МНОЖЕСТВА ПАРЕТО

© 2011 Е. А. Сопов, С. А. Сопов Сибирский государственный аэрокосмический университет

В статье представлен новый алгоритм решения сложных задач условной многокритериальной оптимизации, построенный на базе вероятностного генетического алгоритма. Предложена эффективная модификация алгоритма с адаптивной мутацией и прогнозом множества Парето, позволяющая получать решения задач при меньшем использовании вычислительного ресурса. Представлены результаты исследования эффективности подхода в сравнении со стандартным генетическим алгоритмом.

Многокритериальная оптимизация, эволюционные алгоритмы, вероятностный генетический алгоритм, адаптивная мутация.

Введение

Необходимость в разработке моделей сложных систем возникает в различных областях науки и техники: математика, экономика, медицина, управление космическими аппаратами и др. При разработке моделей часто возникают задачи оптимизации, которые обладают такими свойствами, как мно-гоэкстремальность, алгоритмическое задание функций, сложная конфигурация допустимой области, наличие нескольких типов переменных и т.д. Более того, в реальных задачах решение редко оценивается по единственному критерию, поэтому важно не только найти допустимое парето-оптимальное решение, но и аппроксимировать множество, чтобы предложить лицу, принимающему решение (ЛИР) объективный выбор. Такие задачи не решаются с помощью классических процедур оптимизации, что приводит к необходимости разрабатывать и применять более эффективные и универсальные методы. К таким методам относятся, в частности, эволюционные алгоритмы (ЭА), доказавшие свою эффективность при решении многих сложных задач [1, 2].

Эффективность ЭА определяется тщательной настройкой и контролем их параметров, что затрудняет применение ЭА, особенно неподготовленными пользователями. В последние годы наблюдается тенденция раз-

вития эволюционных подходов, способных к самонастройке параметров за счёт использования сложных гибридных схем, а также эффективных алгоритмов с меньшим числом параметров.

Одним из подходов, позволяющих уменьшить число настраиваемых параметров эволюционных алгоритмов, является использование вероятностных генетических алгоритмов (ВГА) [3, 4]. Их отличие от стандартного генетического алгоритма (ГА), в частности, состоит в том, что в них отсутствует оператор скрещивания, а новые решения получаются на основе статистической информации о поисковом пространстве. Таким образом, накапливая и используя эту информацию, данные алгоритмы самостоятельно могут адаптироваться к решаемой задаче. ВГА показали свою эффективность и применимость к некоторым сложным задачам оптимизации [5, 6] и являются перспективными для дальнейшего изучения и совершенствования. Данная работа посвящена исследованию эффективности ВГА в сложных задачах многокритериальной оптимизации.

1. Многокритериальная оптимизация генетическими алгоритмами

В самом общем виде задача условной многокритериальной оптимизации включает набор из N параметров (переменных), множество К целевых функций этих пере-

менных и множество M ограничений типа равенств и неравенств. При решении многокритериальной задачи необходимо найти оптимум по совокупности K критериев, а сама задача формально записывается следующим образом:

у = f (x) = СЛ(x) f2(x)v- fK (x)) ® °pt,

gj(x) < 0, j = 1, г,

< __________________

hj (x) = 0, j = r +1, M,

где x = (x13x2,...,xN) G X - вектор решений,

y = Шx) f2 (x),..., fK (x)) G Yf - вектор целевых функций. При этом X называется пространством решений (или альтернатив), а

Yf - пространством целей (или критериальным пространством).

В наиболее общей постановке задачи условной многокритериальной оптимизации от функций f(x), g(x), h(x) не требуется ни-1 j j каких дополнительных свойств, удобных с точки зрения оптимизации (выпуклость, дифференцируемость, непрерывность и т.д.). Функции и ограничения могут быть заданы алгоритмически, а переменные могут быть непрерывными, дискретными, бинарными или смешанными.

Введём следующие определения. Допустимое множество D определяется как множество векторов х Е X, которые удовлетворяют ограничениям g.(x) и h(x):

D = {x g X | gj (x) < 0, j = 1, r; hj (x) = 0, j = r +1, M}.

Образ допустимой области D в пространстве целей обозначается как

yd = {У = f (x) 1 x G d} .

Будем считать, что решается задача максимизации. Тогда понятие Парето-домини-рования для двух любых векторов определяется тремя возможными вариантами:

- решение а доминирует решение b:

a f b, если f (a) > f (b);

- решение а слабо доминирует решение b: a f b, если f (a) > f (b);

- решения a и b несравнимы: a » b , если f (a) < f (b) л f (a) > f (b).

Таким образом, a g D называется па-рето-оптимальным, если не существует

b g D : b f a . При этом вектор x g D, называется недоминируемым относительно не-ко-торого множества A ^ D, если не существует a g A : a f x.

Определим оператор p( A), который даёт множество недоминируемых решений в A :

p(A) = {a g A с D | а}- недоминируем относительно A}

Множество Xp = p(D) называется множеством Парето, а множество

Yp = f (Xp ) определяет фронт Парето.

Для решения задач многокритериальной оптимизации генетические алгоритмы должны быть оснащены методами учета многих целевых функций. В многокритериальных ГА за основу берется стандартный ГА, однако при разработке конкретных методов решения многокритериальных задач упор делается на модификацию этапов назначения пригодности и селекции с поддержанием разнообразия популяции.

Наиболее распространенными многокритериальными схемами сегодня являются: VEGA (генетический алгоритм векторных оценок) [7], FFGA (генетический алгоритм Фонсеки и Флеминга) [8], NPGA (паретовс-кий генетический алгоритм с нишами) [9], SPEA (усиленный по Парето эволюционный алгоритм) [10].

Метод VEGA, который впервые был предложен в 1984 году Шаффером [7], относится к категории методов селекции по переключающимся целевым функциям. Здесь селекция производится по пригодности индивидов для каждого из K критериев в отдельности. Таким образом, промежуточная популяция заполняется равными порциями индивидов, отобранных по каждому из частных критериев.

Метод FFGA (1993) использует основанную на Парето-доминировании процедуру ранжирования индивидов, где ранг каждого индивида определяется числом доминирующих его индивидов [8]. Метод FFGA реализует лишь схему назначения пригодности, а для отбора индивидов в следующее поколение используется процедура селекции ГА.

Метод NPGA принципиально отличается от двух предыдущих, так как в нём заложен механизм поддержания разнообразия [9]. Метод NPGA представляет собой комбинацию турнирной селекции и концепции доминирования по Парето. В NPGA этап назначения пригодности заменяется модифицированной схемой деления пригодности с использованием понятия ниши, которая определяется для индивидов в пространстве целевых функций и обеспечивает возможность поддержания разнообразия, позволяя получить представительное множество Парето.

Метод SPEA (Zitzler and Thiele, 1998) кардинально отличается от рассмотренных ранее методов, так как в нем [10]:

- для назначения индивидам скалярного значения пригодности используется концепция Парето-доминирования;

- индивиды, недоминируемые относительно других членов популяции, хранятся отдельно в специальном внешнем множестве;

- для уменьшения количества индивидов, хранящихся во внешнем множестве, выполняется кластеризация, что, в свою очередь, никак не влияет на приобретенные в процессе поиска свойства индивидов.

Уникальность и преимущества метода SPEA заключаются в том, что:

- он сочетает вышеперечисленные подходы в одном алгоритме;

- пригодность каждого индивида популяции определяется только относительно индивидов внешнего множества, независимо от того, доминируют ли индивиды популяции друг друга;

- несмотря на то, что «лучшие» индивиды, полученные в предыдущих поколениях, хранятся во внешнем множестве, все они принимают участие в селекции;

- для предотвращения преждевременной сходимости используется особый механизм образования ниш, где деление общей пригодности осуществляется не в смысле расстояния между индивидами, а на основе Парето-доминирования.

Одним из недостатков БРЕЛ может быть признано то, что большая часть ресурсов и времени тратится на процедуру кластеризации, которая обеспечивает поддержание разнообразие популяции.

2. Вероятностный генетический алгоритм многокритериальной оптимизации

Как отмечалось выше, в многокритериальных схемах ГА в основе лежит стандартный ГА, а многокритериальность реализуется за счёт модификации процедур селекции и назначения пригодности. В [3, 4] был предложен оригинальный ГА, в котором накопленная информация о пространстве поиска фиксируется в виде оценки распределения единичных компонентов векторов-решений. Это распределение используется для формирования новых индивидов (заменяет оператор скрещивания) и переоценивается после отбора индивидов. ВГА содержит меньшее число настраиваемых параметров, а за счёт использования дополнительной статистической информации о пространстве поиска - в среднем превосходит стандартный ГА по надёжности и трудоёмкости.

Общая схема ВГА имеет следующий

вид:

1. Инициализировать случайным образом популяцию решений.

2. С помощью оператора селекции выбрать г наиболее пригодных индивидов текущей популяции (родителей). Вычислить вектор вероятностей по формуле:

Р = ( р^.. рп),

р. = р{Х] = 1}= Г±х),] = ^п ,

Г /=1

где п - длина хромосомы, х] - ]-й бит /-го индивида.

3. В соответствии с распределением Р сформировать популяцию потомков.

4. Из популяции родителей и потомков сформировать новую рабочую популяцию.

5. Новую популяцию подвергнуть мутации.

6. Повторять шаги 2 - 5 пока не выполнится условие остановки.

ВГА с адаптивной мутацией. При решении задач многокритериальной оптимизации основной упор делается на получение репрезентативного множества ответов. Это означает, что решения, полученные алгоритмом, должны быть достаточно широко распределены в поисковом пространстве и давать реальное представление об истинном множестве Парето.

В эволюционных алгоритмах оператор мутации отвечает за «широкий» поиск и захват новых областей поискового пространства. Для его настройки пользователю дополнительно приходится принимать решение о том, какое значение вероятности мутации следует использовать. При низкой мутации алгоритм будет редко захватывать новые области поискового пространства и быстрее сходиться к локальным экстремумам. При высокой мутации алгоритм будет чаще обследовать различные области поискового пространства, но при этом не будет локализовать перспективные области пространства поиска. Таким образом, выбор оператора мутации напрямую влияет на качество работы алгоритма и получаемых им решений.

В данной работе предложена модификация ВГА, в котором отсутствует необходимость настраивать оператор мутации вручную (впервые подобная схема была предложена в [11]). На каждом шаге работы алгоритма вероятность мутации рассчитывается автоматически по следующей формуле:

£ =

п

к-1

X,

к-1

2 • X,,

иначе,

где п - длина хромосомы; Хк 1 - разброс точек в пространстве решений на (к-1)-м по-

колении; Хк - разброс точек в пространстве решений на к-м поколении; функция £ определяет силу мутации.

При этом разброс точек в пространстве решений определяется по формуле

N п=1 Мп - тп ’

1 № и

где Ьйп =— У И" - йп

N 1 1

среднее отклоне-

ние расстояний между индивидами I и у от среднего расстояния ^ в пространстве решений по каждой из п переменных;

1

N

ёп = У 3"п - среднее расстояние между

1,1

индивидами і и у по каждой из п переменных в пространстве решений;

(Зп =

аіі ~

йп - ёп

расстояние между индивидами і и у по каждой из п переменных в пространстве решений; і, 1 - номера индивидов в популяции; N' - количество всех возможных пар индивидов; N - количество переменных (альтернатив) в решаемой задаче; Мп - максимально возможное значение п-й переменной во всей допустимой области; тп - минимально возможное значение п-й переменной во всей допустимой области.

Таким образом, вероятность мутации увеличивается, если решения-индивиды начинают группироваться около какого-либо локального оптимума, и уменьшается, когда решения распределяются в пространстве более широко.

ВГА с прогнозом множества Парето. Изменение значений вектора вероятностей единичных компонентов в ВГА можно представить в виде графиков [3, 4]. При этом можно наблюдать следующее свойство:

Г рі ® 1, если х°р‘ = 1,

[рі ® 0, если х°р = 0,

где х°р - значение 1-го бита оптимального

решения. Т. е. если значения вектора вероятностей стремятся к единице, то вероятнее

всего соответствующее значение в векторе оптимального решения равно единице и если стремятся к нулю, то - ноль.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Последнее свойство можно использовать для прогноза оптимального значения и, в частности, для прогнозирования множества Парето в задачах многокритериальной оптимизации. В [4] предложен алгоритм прогноза для задач безусловной однокритериальной оптимизации, однако данный алгоритм требует модификации, т.к. в исходной постановке алгоритм прогнозирует единственное решение, а в многокритериальной постановке множество Парето в общем случае может состоять более чем из одного решения. Далее приведен модифицированный алгоритм прогнозирования множества Парето:

1. Определить шаг прогноза К.

2. На каждом поколении рассчитывать распределение нулей и единиц во множестве недоминируемых относительно текущей популяции решений, т.е. рассчитать вектор Р по формуле:

Р = к- } Ру = р{х- = 1}=1 £ , - = 1п,

где п - длина хромосомы, х1 - - у-й бит /-го

индивида во множестве недоминируемых решений, г - количество недоминируемых решений в текущей популяции.

3. Каждому поколению придавать вес в зависимости от его номера:

и/ = 21/Ык(ык +1), - = Ык .

4. Через каждые К поколений по

набранным статистикам Рі , і = 1, Nк ,

NK = і • К, і є {1,2, к} рассчитать вектор вероятностей по формуле:

~ Nк —

Р = У°, ■ Р.

і=1

5. Используя вектор Р , сгенерировать заданное количество прогнозируемых решений.

6. Добавить полученные на предыдущем шаге решения в текущую рабочую популяцию и продолжить работу ВГА.

Выбор весовых коэффициентов позволяет увеличивать вклад в прогноз более поздних значений вероятностей, т. к. на более поздних поколениях накоплено больше информации о поисковом пространстве.

3. Анализ эффективности алгоритмов

В качестве исследуемых характеристик эффективности алгоритмов были выбраны: разброс точек в пространстве решений (X), разброс точек в пространстве критериев (У),

процент паретовских (%) и допустимых (% доп.) точек в итоговой популяции решений. В тех задачах, где множество Парето представляет собой отрезок прямой или части окружности, дополнительно исследовалось среднее расстояние (Ср.р.) от всех решений до множества Парето. Для оценки скорости сходимости алгоритмов с прогнозом дополнительно исследовался номер итерации алгоритма, на которой процент паре-товских точек в текущей популяции впервые достигает определённого значения (Скор.). Ниже представлены способы расчёта характеристик.

Разброс точек в пространстве решений (X) определяется по следующей формуле (аналогично разбросу точек при расчете значения адаптивной мутации):

X = і У ^

N п=1 Мп - тп ■

Заметим, что X є [0, 1]. Частный случай X = 0 означает, что все индивиды в популяции сгруппировались в одну точку Чем больше значение данной характеристики, тем более равномерно и широко распределены решения в пространстве альтернатив. Алгоритм, у которого результирующее множество ответов имеет больший показатель разброса, будем считать более предпочтительным.

Разброс точек в пространстве критериев (Г) определяется по следующей формуле:

1 к /

Г = 1 у_ Л/

К к=1 Мк - тк

1 N

где / = -У||ЇІ - /к

і, 1

среднее отклоне-

ние расстояний между индивидами / и - от среднего расстояния /к в пространстве критериев по каждой из К целевых функций;

среднее расстояние между

1 ы'

зк 1 'V"' зк

^ ~ N' ^ у

- ,у

индивидами 1 и - по каждой из К целевых функций в критериальном пространстве;

гк гк гк

Зу _ 31 - 3- - расстояние между индиви-

дами 1 и - по каждой из К целевых функций в критериальном пространстве; 1, - - номера индивидов популяции; N' - количество всех возможных пар индивидов; К - количество критериев (целевых функций) в решаемой задаче; Ык - максимально возможное значение по к-й целевой функции:

мк _ тах (/к (х));

xeD

m, - минимальное воз-

k

можное значение по k-й целевой функции:

(fk (x)).

mk = min

xeD

Процент паретовских точек (%) определяется по следующей формуле:

PercentPar = 1ОО

N (Pres ) N(PreS )

PerCentFeas = 1О°-

NFeas (Pres )

N(PreS )

где Pres - результирующее множество решений, выдаваемое алгоритмом в качестве ответа; NFeas(Pres) - количество допустимых точек во множестве P ; N(P ) - количество

res res

всех точек во множестве P .

Среднее расстояние до множества Парето (Ср.р.) определяется по формуле

1 N

Аё _—У йг N1=1 1,

где N - количество индивидов (решений) в итоговом множестве решений, ё - кратчайшее расстояние в пространстве альтернатив (X) от 1-го индивида до множества Парето рассматриваемой задачи.

В тех случаях, когда множество Парето является отрезком прямой, ё - есть кратчайшее расстояние от точки до отрезка, вычисляемое по следующей формуле:

d ( X ) =

N

Я = ■

у (a - xi - я(ьі - аг)у

V і=1

где Pres - результирующее множество решений, выдаваемое алгоритмом в качестве ответа, Np(PreS) - количество паретовских точек во множестве P , N(P ) - количество

res v resу

всех точек во множестве P .

res

Очевидно, что PercentPar е [0,100].

Чем выше значение данного показателя, тем больше паретовских точек в итоговом множестве решений. При сравнении двух алгоритмов предпочтение будем отдавать тому, у которого данный показатель выше.

Процент допустимых точек (% доп.) определяется по следующей формуле:

ьі - a У

где Л=(ар..., аы), В=(Ьр..., Ьы) - координаты концов отрезка ЛВ; Х=(х;,..., хы) - точка, от которой требуется найти расстояние до отрезка ЛВ; N - количество переменных в решаемой задаче.

Очевидно, что чем меньше значение данного показателя, тем ближе к множеству Парето лежит результирующее множество решений. При сравнении двух алгоритмов предпочтение будем отдавать тому, у которого данный показатель меньше.

Скорость сходимости (Скор.) определяется следующей процедурой оценивания скорости сходимости алгоритма к множеству Парето:

1) Перед началом работы ГА положить

5 = 0.

2) На к-м поколении ГА вычислить процент паретовских точек Рраг в текущей популяции.

3) Если р < Рш;п и 5 = 0, то продолжить работу ГА и перейти на шаг 2.

4) Если Рё > Рш;п и 5 = 0, то вычислить

к

значение 5 по формуле 5 _ 100---- и в каче-

Ыр

стве оценки скорости сходимости выдать

і78

полученное значение 5. Завершить данную процедуру оценки в рамках текущего запуска ГА и продолжить дальнейшую работу ГА.

Здесь к - номер текущего рабочего поколения, Np - общее количество популяций в ГА, Р - минимальный процент паретовс-

7 тіп А А

ких точек, который должен быть достигнут алгоритмом (задается пользователем). В данной работе использовалось значение Р = 50.

А тіп

Для задач, в которых множество Парето представляет собой отрезок прямой или части окружности, процент паретовских точек на шаге 2 может определить процент точек, лежащих на заданном расстоянии от отрезка или части окружности.

Очевидно, что значение 5 є [0,100]. Интерпретация данного параметра следующая: требуется 5 процентов поколений ГА для того, чтобы текущая рабочая популяция стала содержать как минимум Ртіп процентов паретовских точек (или как минимум Р

і \ тіп

точек, лежащих на заданном расстоянии от множества Парето). Значение 5 = 0 говорит о том, что заданный порог Ртіп не достигается в ходе работы ГА. Значение 5 = 100 говорит о том, что заданный порог Ртіп достигается на самом последнем поколении ГА. При сравнении двух алгоритмов предпочтение будем отдавать тому, у которого данный показатель меньше и отличен от 0.

Сравнение эффективности стандартного ГА и ВГА проводилось на тестовых задачах условной двух-, трёх- и четырёхкритериальной нелинейной оптимизации. Тестовые задачи представлены ниже:

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Задача 1

/ (х у) = (х - 6)2 + (у - 4)2 ® тіп

/2(х у) =(х + 2)2 + (у - 5)2 ® т^

|£:(х у) = (х -1)2 + (у - 4)2 < 4 іЕ2(x,у) = (х-3)2 + (у-4)2 < 6,25.

Задача 2

/1(x, У) = (х - 6)2 + (У - 4)2 ® min,

/2(x, у) =(х + 2)2 + (у - 5)2 ® min,

/з (х, у) = (х - 4)2 + (у + 4)2 ® тіп,

' &( х, у) = (х - 2)2 + (у - 2)2 < 10,24

< g2(x,у) = (х-5)2 + (у-1)2 < 16 _Ез(x, у) =(х - 3)2 +(у - 4)2 < 9

Задача 3

А(x, у) =(х -1)2 +(у+1)2 ® ті^

/2(x, у) =(х + 2)2 +(у - 2)2 ® min,

Л(x, у) =(х - 3)2 + (у - 4)2 ® min,

/4(x, у) =(х - 4)2+(у - 2)2 ® min,

Е1(^ у) = (х +1,8)2 + (у - 2)2 > 4 Е2 (х, у) = (х -1)2 + (у - 4,5)2 > 4

“ gз(x,у) =(х-5,2)2 + (у-2)2 >9 Е4(x, у) =(х -1)2 +(у + 2)2 > 9 _Ез(^у) = (х-1)2 +(у-2)2 < 6,25.

Задача 4

А(x, у) =(х -1)2+(у+1)2 ® min,

Л(x, у) =(х+2)2+(у - 2)2 ® min,

/3(x, у) =(х - 3)2 + (у - 4)2 ® min,

Л4(x, у) =(х - 4)2 +(у - 2)2 ® min,

Е1(x, у) = х" + (у - 6)2 < 4 Е2(^ у) =(х + 2)2 +(у - 5)2 < 4.

Поскольку алгоритмы являются стохастическими, то для каждой задачи проводилась серия из 100 независимых запусков алгоритмов, и исследуемые характеристики усреднялись.

Ниже в таблицах представлены результаты экспериментального исследования алгоритмов (лучшие показатели для конкретной задачи выделены).

Из табл. 1 видно, что в среднем метод БРЕЛ более эффективен (лучшие показатели по совокупности оценок), при этом эффективность ГА и ВГА сравнима.

Поскольку оба алгоритма являются стохастическими, для проверки того, являются ли различия между алгоритмами случайны-

Таблица 1. Сравнение эффективности ГА и ВГА при наилучших настройках

Задача Метод ГА В] ГА

X Y % / Ср.р. % доп. X Y -- а %С % доп.

1 VEGA 0,0358 0,0169 0,181 95,8005 0,0296 0,0158 0,2811 94,718

FFGA 0,0287 0,0161 0,075 96,6498 0,0253 0,0159 0,1505 97,2794

NPGA 0,0325 0,0185 0,1838 93,7909 0,0307 0,0166 0,2864 95,7321

SPEA 0,0253 0,0205 0,1078 95,9333 0,0254 0,0205 0,1074 96,3287

2 VEGA 0,0529 0,0337 26,62 95,4466 0,0495 0,0309 26,2175 96,3083

FFGA 0,0512 0,0327 50,1888 95,2674 0,0497 0,0314 56,8789 95,7812

NPGA 0,0489 0,0308 92,5909 92,894 0,0476 0,0301 92,6855 92,8477

SPEA 0,0553 0,0348 94,9333 98,5333 0,0554 0,035 93,4 98,6

3 VEGA 0,031 0,0181 32,1662 94,5157 0,0234 0,0131 41,7492 90,5893

FFGA 0,0299 0,0173 28,8523 94,2752 0,0227 0,0126 44,3984 93,8237

NPGA 0,0316 0,0181 92,7138 92,7138 0,0231 0,0132 93,5905 93,5905

SPEA 0,0368 0,022 86,5609 86,4966 0,0364 0,0217 83,2409 84,6644

4 VEGA 0,003 0,0026 0,0103 30,1628 0,0014 0,0012 0,0255 33,0459

FFGA 0,0032 0,0027 0,0189 74,8996 0,0014 0,0014 0,0458 72,016

NPGA 0,0033 0,0033 0,0267 61,9082 0,0015 0,0015 0,0511 63,9618

SPEA 0,0082 0,0065 0,0031 73,8352 0,0077 0,0061 0,0042 74,5916

ми, применялся статистический тест Колмогорова-Смирнова (КБ^еБ^ с 5 % уровнем значимости. Тест подтвердил, что различия случайны, а потому схема БРЕА одинаково эффективна со стандартным ГА и с ВГА.

Из табл. 2 видно, что ВГА с адаптивной мутацией эффективнее, чем ВГА. В тех же случаях, когда ВГА с адаптивной мутацией уступает ВГА, средняя относительная эффективность не превосходит 5 % уровня значимости, а значит, можно сделать вывод о том, что алгоритмы сопоставимы по эффективности. При этом стоит отметить, что в случае адаптивной мутации пользователю алгоритма не нужно настраивать значение мутации (выбор которого существенно влияет на эффективность алгоритма).

Из табл. 3 видно, что при использовании прогнозирования критерий достижения множества Парето удовлетворяется на более ранней стадии работы алгоритма. Кроме того, алгоритм с прогнозированием показывает наилучший процент паретовских и допустимых точек. По степени разброса точек в пространстве альтернатив и пространстве критериев ВГА с прогнозом уступает по эффективности, однако это различие не превосходит 5 %, поэтому может быть признано несущественным.

Выводы

Использование ВГА в сочетании со схемой БРЕА позволяет эффективно решать сложные задачи многокритериальной условной оптимизации, при этом эффективность

Таблица 2. Сравнение эффективности ВГА и ВГА с адаптивной мутацией

ВГА (адаптивная мутация) ВГА

Задача X Y % / Ср.р. % доп. X Y -- а %С % доп.

1 0,0245 0,0207 0,1047 98 0,0254 0,0205 0,1074 96,3287

2 0,0548 0,0348 93,8 98,8333 0,0554 0,035 93,4 98,6

3 0,0379 0,0219 83,5695 85,5695 0,0364 0,0217 83,2409 84,6644

4 0,0063 0,0049 0,0037 65,3628 0,0077 0,0061 0,0042 74,5916

Таблица 3. Сравнение эффективности ВГА и ВГА с прогнозом множества Парето

Задача ВГА (прогноз множества Парето) ВГА

X Y -- si %С % доп. X Y -- si І %С % доп.

1 G,G254 G,G2G7 G,G9G4 97,88ЗЗ G,G254 G,G2G5 G,1G74 9б,З287

2 G,G546 G^S 9З,8ЗЗЗ 99 G,G554 G^ 9З,4 98,б

3 G^4 G,G216 85,197З 85,197З G^64 G,G217 8З^9 84,бб44

4 G,GG66 G,GG54 G,GG41 7б,114 G,GG77 G,GG61 G,GG42 74,591б

алгоритма сопоставима с эффективностью стандартного ГА. Однако использование ВГА более предпочтительно, т.к. у пользователя алгоритма нет необходимости настраивать параметры ВГА - использование распределения вероятностей замещает оператор скрещивания, а оператор мутации является адаптивным. В случае использования стандартного ГА необходим выбор наилучших (с точки зрения эффективности) параметров алгоритма, в противном случае эффективность алгоритма может существенно снижаться.

При использовании ВГА с прогнозом множества Парето, скорость нахождения па-рето-оптимальных решений выше, а значит требуется меньше вычислительных ресурсов для решения задачи. Более того, прогноз позволяет получать больший процент паре-товских решений к концу работы алгоритма, следовательно, позволяет получить и более репрезентативную аппроксимацию множества Парето.

Библиографический список

1. Holland, J. H. Adaptation in natural and artificial systems / J. H. Holland. - MI: University of Michigan Press, 1975.

2. Goldberg, D. E. Genetic algorithms in search, optimization, and machine learning / D. E. Goldberg. - Reading, MA: Addison-Wesley, 1989.

3. Сопов, Е.А. Вероятностный генетический алгоритм и его исследование [Текст] / Сопов Е. А. // VII Королёвские чтения. -Самара: Изд-во Самарского научного центра РАН. - 2003. - Том 5. - С. 38-39.

4. Семенкин, Е. С. Вероятностные эволюционные алгоритмы оптимизации сложных систем [Текст] / Е. С. Семенкин, Е. А. Сопов // Труды Междунар. науч.-техн. конф.

«Интеллектуальные системы» (AIS’05) и «Интеллектуальные САПР» (CAD-2005). В 3 т. - М.: ФИЗМАТЛИТ, 2005. - Т. 1.

5. Сопов, Е. А. О способах учета ограничений в вероятностном генетическом алгоритме [Текст] / Е. А. Сопов // Труды Меж-дунар. научн.-техн. конф. «Интеллектуальные системы» (AIS’06) и «Интеллектуальные САПР» (CAD-2006). В 3 т. - М.: Физматлит, 2006. - Т.1. - 456 с.

6. Ворожейкин, А. Ю. Об одной модификации вероятностного генетического алгоритма для решения сложных задач условной оптимизации [Текст] / А. Ю. Ворожейкин [и др.] // Вестн. Сибир. гос. аэрокосм. ун-та. - Вып. 4 (25). - Красноярск, 2009.

7. Schaffer, J.D. Multiple objective optimization with vector evaluated genetic algorithms / J. D. Schaffer // In J. J. Grefenstette (Ed.), Proceedings of an International Conference on Genetic Algorithms and Their Applications, Pittsburgh, PA, 1985. - P. 93-100.

8. Fonseca, C. M. Multiobjective optimization and multiple constraint handling with evolutionary algorithms / C. M. Fonseca, P. J. Fleming // Part I: A unified formulation. Technical report 564, University of Sheffield, Sheffield, UK, January 1995.

9. Horn, J. A niched Pareto genetic algorithm for multiobjective optimization / J. Horn, N. Nafpliotis, D. E. Goldberg // In Proceedings of the First IEEE Conference on Evolutionary Computation, Vol. 1, Piscataway, 1994. - P. 82-87.

10. Zitzler, E. Multiobjective evolutionary algorithms: A comparative case study and the strength Pareto approach / E. Zitzler, L. Thiele // IEEE Transactions on Evolutionary Computation, Vol. 3, No. 4, 1999. - P. 257-271.

11. Ворожейкин, А. Ю. Разработка и исследование вероятностного генетического алгоритма многокритериальной оптимизации [Текст] / А. Ю. Ворожейкин, Е. С. Се-

менкин // Труды междунар. научн.-техн. конф. «Интеллектуальные системы» (AIS’07) и «Интеллектуальные САПР» (CAD-2007). -М.: Физматлит, 2007. - Т.1. - С. 10-19.

PROBABILITY-BASED GENETIC ALGORITHM FOR SOLVING COMPLEX MULTIOBJECTIVE OPTIMIZATION TASKS USING ADAPTIVE MUTATION OPERATOR AND PARETO SET PREDICTION

© 2011 Ye. A. Sopov, S. A. Sopov

Siberian State Aerospace University

The article is devoted to a new algorithm for solving complex constrained multiobjective optimization tasks on the basis of probability-based GA. An efficient modification of the algorithm using adaptive mutation and Pareto set prediction is proposed. The results of efficiency investigation are presented.

Multiobjective optimization, evolutionary algorithms, probabilitys-based GA, adaptive mutation.

Информация об авторах

Сопов Евгений Александрович, кандидат технических наук, доцент кафедры системного анализа Сибирского государственного аэрокосмического университета. Е-mail: [email protected]. Область научных интересов: генетические алгоритмы, интеллектуальные технологии анализа и моделирования сложных систем.

Сопов Сергей Александрович, студент 6-го курса Института информатики и телекоммуникаций Сибирского государственного аэрокосмического университета. Е-mail: [email protected]. Область научных интересов: эволюционные алгоритмы, многокритериальная оптимизация.

Sopov Yevgeny Alexandrovitch, candidate of technical sciences, associate professor of the department of system analysis, Siberian State Aerospace University. Е-mail: [email protected]. Area of research: genetic algorithms, intelligent systems of complex system analysis and modeling.

Sopov Sergey Alexandrovitch, 6-th year student of the Institute of Informatics and Telecommunications, Siberian State Aerospace University. Е-mail: [email protected]. Area of research: evolutionary algorithms, multiobjective optimization.

i Надоели баннеры? Вы всегда можете отключить рекламу.