НАУЧНО-ТЕХНИЧЕСКИИ ВЕСТНИК ИНФОРМАЦИОННЫХ ТЕХНОЛОГИИ, МЕХАНИКИ И ОПТИКИ ноябрь-декабрь 2017 Том 17 № 6 ISSN 2226-1494 http://ntv.i1mo.ru/
SCIENTIFIC AND TECHNICAL JOURNAL OF INFORMATION TECHNOLOGIES, MECHANICS AND OPTICS November-December 2017 Vol. 17 No 6 ISSN 2226-1494 http://ntv.ifmo.ru/en
УДК 004.415.53:004.832.23
МЕТОД АДАПТИВНОГО ВЫБОРА ОПЕРАТОРОВ МУТАЦИИ ИСКУССТВЕННЫХ ИММУННЫХ СИСТЕМ И ЛОКАЛЬНОГО ПОИСКА Н.С. Буланова3, А.С. Буздалова3, А.А. Шалыто3
a Университет ИТМО, Санкт-Петербург, 197101, Российская Федерация Адрес для переписки: [email protected] Информация о статье
Поступила в редакцию 15.09.17, принята к печати 30.10.17 doi: 10.17586/2226-1494-2017-17-6-1100-1106 Язык статьи - русский
Ссылка для цитирования: Буланова Н.С., Буздалова А.С., Шалыто А.А. Метод адаптивного выбора операторов мутации искусственных иммунных систем и локального поиска // Научно-технический вестник информационных технологий, механики и оптики. 2017. Т. 17. № 6. С. 1100-1106. doi: 10.17586/2226-1494-2017-17-6-1100-1106
Аннотация
Предмет исследования. Рассмотрены эволюционные алгоритмы, использующие различные операторы мутации, которые могут быть эффективными на различных этапах оптимизации. Поставлена задача выбора наиболее подходящих операторов мутации в процессе оптимизации. Предложен адаптивный метод, выбирающий тот или иной оператор мутации с вероятностью, зависящей от значения функции приспособленности особи. Это свойство позволяет методу быть эффективным на каждом этапе оптимизации. Метод. В методе адаптивного выбора операторов мутации использованы алгоритмы искусственных иммунных систем, эффективные на начальном этапе оптимизации, и алгоритмы локального поиска, эффективные на заключительном этапе. Для анализа эффективности разработанного метода было проведено его сравнение с существующими методами на модельных задачах. Основные результаты. Разработан метод адаптивного выбора операторов мутации искусственных иммунных систем и локального поиска. Произведено экспериментальное сравнение эффективности предложенного метода с существующими аналогами. Исследование показывает, что разработанный метод эффективен при различных временных ограничениях и находит оптимальные решения задач в лучших, чем у аналогов, временных пределах. Практическая значимость. Предложенный метод позволяет разрабатывать алгоритмы, эффективные при решении динамических задач с оптимизируемой функцией, изменяющейся во времени. Примером такой задачи может служить задача о маршрутизации транспорта (англ. Pickup-and-Delivery Problem). Ключевые слова
искусственные иммунные системы, локальный поиск, гибридизация, обучение с подкреплением, меметические алгоритмы
ADAPTIVE SELECTION OF ARTIFICIAL IMMUNE SYSTEMS AND LOCAL
SEARCH MUTATION OPERATORS N.S. Bulanova3, A.S. Buzdalova3, A.A. Shalyto3
3 ITMO University, Saint Petersburg, 197101, Russian Federation Corresponding author: [email protected] Article info
Received 15.09.17, accepted 30.10.17
doi: 10.17586/2226-1494-2017-17-6-1100-1106
Article in Russian
For citation: Bulanova N.S., Buzdalova A.S., Shalyto A.A. Adaptive selection of artificial immune systems and local search mutation operators.
Scientific and Technical Journal of Information Technologies, Mechanics and Optics, 2017, vol. 17, no. 6, pp. 1100-1106 (in Russian). doi: 10.17586/2226-1494-2017-17-6-1100-1106
Abstract
Subject of Research. Evolutionary algorithms use various mutation operations, which can be optimal at different stages of optimization. We formulate the task of choosing the most suitable mutation operator while optimizing. We propose a method for adaptive selection of mutation operators with probability depending on the current fitness. This property makes this method efficient on every stage of optimization. Method. We use two classes of algorithms: artificial immune systems, which are efficient at the initial stage of optimization, and randomized local search, which is efficient towards the end. The new method and the existing algorithms are compared experimentally on two benchmark problems. Main Results. The method for adaptive selection between artificial immune systems and local search mutation operators is developed. An experimental comparison of the proposed method with existing ones was performed. It showed that the proposed method is efficient under
various computational budgets and finds optimal problem solutions faster than the other methods. Practical Relevance. The proposed modification improves the performance of algorithms when solving dynamic optimization problems with fitness functions changing in time, such as Pickup-and-Delivery Problem. Keywords
artificial immune systems, local search, hybridisation, reinforcement learning, memetic algorithms
Введение
Эволюционные вычисления - это одно из направлений искусственного интеллекта, основанное на принципах природной эволюции. Чаще всего эволюционные вычисления применяются для решения задач оптимизации. Одним из подходов, принадлежащих этому направлению, являются эволюционные алгоритмы (ЭА) [1, 2]. В терминах эволюционных алгоритмов оптимизируемая функция называется функцией приспособленности (ФП). Будем считать, без ограничения общности, что функцию приспособленности требуется максимизировать. В рамках ЭА решения задачи представляются в виде особей, к которым в процессе оптимизации применяются операторы мутации и скрещивания, а затем осуществляется отбор особей с наибольшим значением ФП. Критерием останова в ЭА служит либо достижение функцией приспособленности заданного порогового значения, либо выполнение алгоритмом заданного числа вычислений ФП.
Другим подходом из области эволюционных вычислений являются искусственные иммунные системы (ИИС). На основе моделей функционирования иммунных систем позвоночных было разработано три класса алгоритмов ИИС: алгоритмы негативного отбора, иммунные сети и алгоритмы клонального отбора [3, 4]. Алгоритмы клонального отбора применяются в основном для решения задач оптимизации, и поэтому именно они рассматриваются в данной работе [4]. ИИС во многом схожи с ЭА, отличаясь от них в первую очередь операторами мутации, позволяющими с большей вероятностью получать решения, сильно отличающиеся от исходных. Такие операторы мутации называют глобальными. Действие, выполняемое оператором мутации, в ИИС часто зависит от значения ФП мутируемой особи. Это объясняет, почему в начале процесса оптимизации алгоритмы ИИС более эффективны, чем ЭА. Но также это замедляет поиск окончательного решения, так как локальные мутации маловероятны.
Разработка и анализ методов, объединяющих различные операторы мутации в одном алгоритме, является развивающейся областью исследований [5-10]. Одними из таких методов являются меметиче-ские алгоритмы, использующие один или несколько алгоритмов локального поиска для небольших локальных улучшений особей в процессе оптимизации, производимой эволюционным алгоритмом [5]. Выбор операторов локального поиска может быть произведен либо на каждой итерации (такой подход называется итерированным локальным поиском [6]), либо адаптивно из заданного набора операторов [7]. Другим методом адаптивного выбора операторов мутации является обучение с подкреплением [8, 9]. В рамках этого метода сущность, называемая агентом обучения, на каждой итерации алгоритма оптимизации согласно некоторой стратегии выбирает действие - один из возможных операторов мутации - и сообщает его среде (в качестве которой выступает ЭА). За это действие агент получает от среды награду и в зависимости от ее величины обновляет свою стратегию. Награда основана на росте ФП, следовательно, агент учится выбирать операторы, которые позволяют быстрее найти решение с высоким значением ФП. Также объединение преимуществ различных операторов мутации возможно с помощью гибридизации. Метод гибридизации заключается в использовании фиксированной вероятности выбора для каждого из возможных операторов мутации. В работе [10] гибридизация применяется для объединения операторов мутации ИИС и локального поиска в одном алгоритме. Такой подход оказался достаточно эффективным на различных задачах, решаемых с помощью хотя бы одного из используемых операторов мутации. Однако отказ от использования получаемой информации о решаемой задаче снижает возможную эффективность этого подхода. Этот недостаток особенно сильно проявляется при работе с динамическими задачами оптимизации - такими задачами, в которых ФП может изменяться со временем. Примером такой задачи может служить задача о маршрутизации транспорта (англ. Pickup-and-Delivery Problem) [11], в которой необходимо решать задачи оптимизации на графе специального вида в режиме реального времени, при этом учитывая то, что граф может изменяться во времени.
В настоящем исследовании предлагается метод адаптивного выбора операторов мутации на основе гибридизации. Разработанный метод выбирает тот или иной оператор мутации с вероятностью, зависящей от ФП текущей особи. Далее будет представлено описание разработанного метода и проведено его сравнение с существующими методами - гибридизацией, обучением с подкреплением и меметическими алгоритмами.
Постановка задачи и описание метода динамического переключения операторов мутации
Целью данного исследования является разработка ЭА, использующего адаптивный метод выбора операторов мутации из двух возможных: оператор мутации, используемый в одном из алгоритмов ИИС, и оператор, применяемый в алгоритме локального поиска. Будут рассмотрены две модельные задачи максимизации, особями в которых являются битовые строки длины n. При этом будем, согласно
стандартному в данной предметной области допущению, предполагать, что вычисление ФП является самым трудоемким этапом, и будем считать, что время работы алгоритма характеризуется числом вычислений ФП. Было показано, что алгоритмы ИИС наиболее эффективны в начале оптимизации [12]. Таким образом, наибольшая эффективность алгоритма переключения должна достигаться в случае, если операторы мутации из алгоритмов ИИС используются чаще на начальном этапе оптимизации, а локальный поиск - в конце.
Предлагается осуществлять выбор оператора мутации из ИИС с вероятностью
7 -7 (у)'
/ёр (у ) = пк 7тах
где / - значение ФП начальной особи, /(у) - значение ФП текущей особи у , а /тах - максимальное значение оптимизируемой функции. Предлагаемая зависимость вероятности от ФП подобрана таким образом, чтобы в начале оптимизации быть равной единице и достаточно быстро уменьшаться. В листинге ниже представлен псевдокод разработанного метода. В начале алгоритма происходит инициализация: текущей (начальной) особи у присваивается случайно сгенерированный битовый вектор длины п, затем промежуточной особи х присваивается значение начальной особи и производится подсчет значения ФП начальной особи /0 = /(у). Далее представлен главный цикл алгоритма, содержащий две повторяющиеся фазы: фазу мутации и фазу селекции. Во время фазы мутации с вероятностью /ёр (у) промежуточной особи х может быть присвоено значение МШайопКу), иначе ей присваивается значение Мы1а-йоп2(у). Далее во время фазы селекции, если значение ФП промежуточной особи х оказалось не меньше, чем значение ФП текущей особи у , то промежуточная особь становится текущей. Цикл останавливается в случае выполнения критерия останова - либо достижения алгоритмом максимума оптимизируемой функции, либо превышения числа вычислений ФП заранее условленного значения.
1. у - случайно сгенерированная особь длины п
2. х = у
3. /о = 7 (у)
4. Повтор пунктов 5-10 пока не выполнен критерий останова
' /о - 7 (у)'
I f
С вероятностью fdp (y) = nI х = Mutationl (y) x = Mutation2 (y )
ИНАЧЕ
ЕСЛИ f (X) - f (y)
У = x
10. КОНЕЦ ЦИКЛА
Описание решаемых задач и анализ существующих алгоритмов
на этих задачах
При разработке и тестировании алгоритма на основе описанного ранее метода в работе использовались две модельные задачи: OneMax и LeadingOnes [13, 14]. Для обеих задач пространством поиска являются битовые строки длины n. В задаче OneMax значением ФП является число единичных бит в строке. В задаче LeadingOnes значением ФП является длина максимального префикса, состоящего из единиц. При разработке алгоритма было решено использовать единственную особь в поколении.
В исследовании используется два алгоритма ИИС, относящихся к алгоритмам клонального отбора [15]: Clonal Selection Algorithm (CLONALG) [15] и B-Cell Algorithm (BCA) [16]. Интерес представляют использующиеся в этих алгоритмах операторы мутации. В первом алгоритме производится мутация всех бит особи с одинаковой вероятностью, которая уменьшается с ростом ФП. Во втором алгоритме в процессе мутации случайным образом выбирается позиция первого мутирующего бита и число бит, идущих за выбранным, которые также подвергнутся мутации с некоторой вероятностью. Перечисленные алгоритмы были выбраны из-за различий в строении оператора мутации и применимости на различных задачах [4, 17]. В качестве же алгоритма локального поиска взят алгоритм RLS (англ. RLS, Randomized Local Search), в котором оператор мутации инвертирует бит на случайно выбранной позиции.
В ходе экспериментов каждый алгоритм запускался 1000 раз, после чего результаты усреднялись. Предельное число вычислений ФП составляло 106 . В работе использовались особи длиной n=1000 для
5
задачи OneMax и особи длиной n=100 для задачи LeadingOnes. На графиках пунктирной линией обозначены максимумы: для задачи OneMax -103, а для задачи LeadingOnes - 102.
Решение поставленных задач с помощью предложенного метода начинается с определения наиболее эффективных на конкретной задаче алгоритмов ИИС для дальнейшего их объединения с локальным поиском. На рис. 1 представлен график зависимости среднего значения ФП от числа ее вычислений алгоритмами BCA, CLONALG и RLS на задачах OneMax (рис. 1, а) и LeadingOnes (рис. 1, б). Значения по осям логарифмированы по основанию 10. В табл. 1 представлено усредненное число вычислений ФП, необходимое для решения задач OneMax и LeadingOnes алгоритмами RLS, BCA и CLONALG и его стандартное отклонение. В таблице прочерками показана ситуация, при которой алгоритму требовалось более чем 106 вычислений ФП для решения задачи.
Рассмотрим задачу OneMax. На ней из исследуемых алгоритмов ИИС наиболее эффективен алгоритм CLONALG. Оператор мутации, используемый в алгоритме CLONALG, помогает ему быстро достигать достаточно высоких значений ФП, но далее его эффективность падает в сравнении с RLS. Для сравнения, алгоритм BCA не смог достигнуть максимума за число вычислений ФП, укладывающееся в ограничение 106 .
Рассмотрим теперь задачу LeadingOnes. В отличие от задачи OneMax, на задаче LeadingOnes CLONALG увеличивает значение ФП очень медленно, а алгоритм BCA делает это очень быстро. Данное явление можно объяснить тем, что оператор мутации алгоритма BCA инвертирует блоки последовательных бит. В начале оптимизации алгоритм BCA сначала совпадает по эффективности с CLONALG, а затем превосходит и CLONALG и RLS. В дальнейшем он уступает в эффективности алгоритму RLS.
Как следует из графиков (рис. 1) и табл. 1, алгоритм RLS требует меньше всего вычислений ФП для оптимизации обеих задач. Однако его эффективность заметно уступает алгоритмам ИИС на начальном этапе, что делает его хорошим кандидатом для применения в конце оптимизации.
Число вычислений ФП Число вычислений ФП
RLS CLONALG - BCA RLS CLONALG ■ BCA
а б
Рис. 1. Зависимость среднего значения функции приспособленности от числа ее вычислений алгоритмами RLS, BCA и CLONALG на задачах OneMax (a) и LeadingOnes (б). Значения по обеим осям логарифмированы по основанию 10
OneMax LeadingOnes
Алгоритм Число Отклонение Число Отклонение
RLS 6760 1270 5010 889
CLONALG 16800 3380 623000 173000
BCA - - 26400 11200
Таблица 1. Усредненное число вычислений функции приспособленности, необходимое для решения задач OneMax и LeadingOnes алгоритмами RLS, BCA и CLONALG, и его стандартное отклонение
На основании представленных результатов предполагается, что при решении задачи OneMax предложенный метод наиболее эффективен, если делает выбор между операторами мутации из алгоритмов RLS и CLONALG, в то время как для LeadingOnes вместо CLONALG требуется использовать оператор мутации из алгоритма BCA.
Анализ предложенного метода на модельной задаче OneMax
Здесь и далее алгоритмы, реализующие предложенный метод, описываются следующим образом: Mutation1+Mutation2, где Mutationl и Mutation2 - названия используемых в алгоритме мутаций (RLS, CLONALG, BCA).
В работе [18] с целью теоретического анализа введено понятие дрейфа алгоритма. Дрейф алгоритма - функция от значения ФП, равная среднему увеличению значения ФП после применения к особи операторов мутации и отбора. Данная функция описывает скорость продвижения алгоритма к максимуму. Воспользуемся этой величиной для визуализации работы предложенного метода. На рис. 2 приведен график дрейфа алгоритмов CLONALG, RLS и алгоритма CLONALG+RLS. На графике значение по вертикальной оси рассчитывается по формуле s(u) / n(u), где u является текущим значением ФП, s(u) - сумма всех приращений ФП за время всех запусков, n(u) - число этих приращений (нулевое приращение также учитывается). Ось значений прологарифмирована по основанию 10. Из графика видно, что в начале оптимизации графики дрейфа CLONALG и CLONALG+RLS совпадают. Затем дрейф CLONALG+RLS сходится к дрейфу алгоритма RLS.
500 600 700 800 900 1000
ФП текущей особи CLONALG+ RLS(exp) RLS ■ CLONALG
Рис. 2. Дрейф алгоритмов RLS, CLONALG и CLONALG+RLS на задаче OneMax.
Значения по оси ординат логарифмированы по основанию 10
Экспериментальное сравнение методов выбора операторов мутации
В ходе предварительного исследования рассматриваемых подходов были выбраны конфигурации, достигающие решения задачи быстрее. В качестве алгоритма обучения с подкреплением использовался алгоритм е-жадного Q-обучения [8] со следующими параметрами: скорость обучения а=0,3, дисконтный фактор у=0,02, вероятность исследования среды е=0,1. Из меметических алгоритмов было решено применить те, что берут в качестве основы ИИС и используют итерированный локальный поиск. Предложенный метод также отражен на графиках (CLONALG+RLS и BCA+RLS).
На рис. 3, а, представлен график оптимизации задачи OneMax алгоритмом RL(O), меметическим алгоритмом (на графике memCLONALG) и алгоритмом CLONALG+RLS. Из рассматриваемых алгоритмов CLONALG+RLS на первых итерациях был сравним с ними по эффективности, но быстро превзошел их (см. область 1 на рис. 3, а). В конце оптимизации разработанный метод показал лучшую эффективность и достиг максимума быстрее (см. область 2 на рис. 3, а).
На рис. 3, б, представлен график оптимизации задачи LeadingOnes алгоритмом RL(O), меметическим алгоритмом (на графике memBCA) и алгоритмом BCA+RLS. На начальном этапе оптимизации разработанный алгоритм не отличался по эффективности от алгоритма обучения с подкреплением (см. область 1 на рис. 3, б). Меметический алгоритм на основе BCA уступал им с самого начала. По завершении непродолжительного начального этапа разработанный метод демонстрировал более высокую скорость движения к максимуму и достиг максимума быстрее других рассмотренных алгоритмов (см. область 2 на рис. 3, б).
Можно наблюдать, что предложенный метод является лучшим среди рассматриваемых. Подход обучения с подкреплением уступает ему, так как требует время (итерации алгоритма = вычисления ФП) на определение того, что эффективность оператора мутации изменилась. Меметические алгоритмы же никогда не перестают применять оператор мутации ИИС, который эффективен только в начале оптимизации, что объясняет наихудшую эффективность этих алгоритмов.
В табл. 2 представлено усредненное число вычислений ФП, необходимое для оптимизации задач OneMax и LeadingOnes, и его стандартное отклонение. Приведены результаты для обучения с подкреплением (в таблице RL(O)), предложенного метода (в таблице Proposed method) и меметических алгоритмов (в таблице Memetic) с различными конфигурациями операторов. Из таблиц видно, что лучшими для оп-
тимизации задач ОпеМах и ЬеаШпОпеБ является предложенный метод, объединяющий локальный поиск с СЬОМЛЬв и ВСА соответственно. Для всех возможных пар алгоритмов был применен непарный тест Вилкоксона [19] и применена коррекция Хольма [20]. Согласно результатам проведенных тестов, полученные результаты являются статистически значимыми.
0 1 2 3 4
Число вычислений ФП RL(O) memCLONALG -CLONALG+RLS
1 2 3
Число вычислений ФП
RL(O) memBCA - BCA+RLS б
Рис. 3. Зависимость среднего значения функции приспособленности от числа ее вычислений методом обучения с подкреплением, предложенным методом и меметическими алгоритмами на задаче OneMax (а) и LeadingOnes (б). Значения по обеим осям логарифмированы по основанию 10.
а
Описание метода комбинации OneMax LeadingOnes
Метод Операторы Число выч. ФП Отклонение Число выч. ФП Отклонение
RL(O) RLS, BCA, 11431 2291 8158 1532
Proposed method BCA, RLS 7477 1311 5208 907
CLONALG, RLS 6911 1319 7582 2963
Memetic BCA, RLS - - 38329 13385
CLONALG, RLS 19066 3497 1116024 344107
Таблица 2. Усредненное число вычислений функции приспособленности и его стандартное отклонение при решении задач OneMax и LeadingOnes методом обучения с подкреплением, предложенным методом
и меметическими алгоритмами
Заключение
Предложен метод адаптивного выбора операторов мутации искусственных иммунных систем и локального поиска. В предложенном методе используется функция выбора операторов мутации, которая изменяется в зависимости от значения функции приспособленности особи. Проведено сравнение эффективности предложенного метода с существующими: обучение с подкреплением, меметические алгоритмы, гибридизация с константной вероятностной функцией.
Показано, что методу обучения с подкреплением требуется дополнительное время для переобучения, а меметические алгоритмы используют операторы искусственных иммунных систем, когда они мешают оптимизации. Экспериментально подтверждено, что оператор мутации искусственных иммунных систем эффективен только на небольшом периоде в начале оптимизации, а в дальнейшем вероятность выбора этого оператора мутации следует резко уменьшить.
На основе предложенного метода были разработаны алгоритмы, использующие функцию, зависящую от функции приспособленности для выбора между операторами мутации искусственных иммунных систем и локальным поиском. Экспериментальное исследование показало, что на всех этапах оптимизации задач OneMax и LeadingOnes разработанные алгоритмы не уступают или лучше по эффективности, чем меметические алгоритмы и алгоритмы обучения с подкреплением. Все полученные результаты являются статистически значимыми, что подтверждается с помощью теста Вилкоксона.
Литература References
1. Гладков Л.А., Курейчик В.В., Курейчик В.М. Генетические 1. Gladkov L.A., Kureichik V.V., Kureichik V.M. Genetic алгоритмы. М.: Физматлит, 2006. 320 с. Algorithms. Moscow, Fizmatlit Publ., 2006, 320 p. (In Russian)
2. Mitchell M. An Introduction to Genetic Algorithms. Cambridge: 2. Mitchell M. An Introduction to Genetic Algorithms. MIT Press, 1996. 221 p. Cambridge, MIT Press, 1996, 221 p.
3. Forrest S., Allen L., Perelson A.S., Cherukuri R. Self-nonself discrimination in a computer // Proc. IEEE Symposium on Research in Security and Privacy. Oakland, USA, 1994. P. 202212.
4. Timmis J., Neal M.J. A resource limited artificial immune system for data analysis // Knowledge-Based Systems. 2001. V. 14. N 3-4. P. 121-130. doi: 10.1016/S0950-7051(01)00088-0
5. Neri F., Cotta C., Moscato P. Handbook of Memetic Algorithms. Springer, 2012. 370 p. doi: 10.1007/978-3-642-23247-3
6. Sudholt D. Memetic algorithms with variable-depth search to overcome local optima // Proc. 10th Genetic and Evolutionary Computation Conference. Atlanta, USA, 2008. P. 787-794.
7. Smith J.E. Self-adaptative and coevolving memetic algorithms // Studies in Computational Intelligence. 2012. V. 379. P. 167188. doi: 10.1007/978-3-642-23247-3_11
8. Sutton R.S., Barto A.G. Reinforcement Learning: An Introduction. Cambridge: MIT Press, 1998. 344 p.
9. Buzdalova A., Kononov V., Buzdalov M. Selecting evolutionary operators using reinforcement learning: Initial explorations // Proc. 16th Genetic and Evolutionary Computation Conference. Vancouver, Canada, 2014. P. 1033-1036. doi: 10.1145/2598394.2605681
10. Corus D. On easiest functions for somatic contiguous hypermutations and standard bit mutations // Proc. 17th Genetic and Evolutionary Computation Conference. Madrid, Spain, 2015. P. 1399-1406. doi: 10.1145/2739480.2754799
11. Savelsbergh M.W.P., Sol M. The general pickup and delivery problem // Transportation Science. 1995. V. 29. N 1. P. 17-29.
12. Zarges C. Theoretical Foundations of Artificial Immune Systems. PhD Thesis. Universitat Dortmund, 2011.
13. Oliveto P.S., He J., Yao X. Time complexity of evolutionary algorithms for combinatorial optimization: a decade of results // International Journal of Automation and Computing. 2007. V. 4. N 3. P. 281-293. doi: 10.1007/s11633-007-0281-3
14. Bottcher S., Doerr B., Neumann F. Optimal fixed and adaptive mutation rates for the LeadingOnes problem // Lecture Notes in Computer Science. 2010. V. 6238. P. 1-10. doi: 10.1007/978-3-642-15844-5_1
15. de Castro L.N., von Zuben F.J. Learning and optimization using the clonal selection principle // IEEE Transactions on Evolutionary Computation. 2002. V. 6. N 3. P. 239-251. doi: 10.1109/TEVC.2002.1011539
16. Kelsey J., Timmis J. Immune inspired somatic contiguous hypermutation for function optimisation // Lecture Notes in Computer Science. V. 2723. P. 207-218.
17. Jansen T., Oliveto P.S., Zarges C. On the analysis of the immune-inspired B-cell algorithm for the vertex cover problem // Lecture Notes in Computer Science. 2011. V. 6825. P. 117131. doi: 10.1007/978-3-642-22371-6_13
18. He J., Yao X. Drift analysis and average time complexity of evolutionary algorithms // Artificial Intelligence. 2001. V. 127. P. 57-85. doi: 10.1016/S0004-3702(01)00058-3
19. Mann H.B., Whitney D.R. On a test of whether one of two random variables is stochastically larger than the other // Annals of Mathematical Statistics. 1947. V. 18. N 1. P. 50-60.
20. Holm S. A simple sequentially rejective multiple test procedure // Scandinavian Journal of Statistics. 1979. V. 6. N 2. P. 65-70.
Авторы
Буланова Нина Сергеевна - аспирант, Университет ИТМО, Санкт-Петербург, 197101, Российская Федерация, ninasbulanova@gmail. сот
Буздалова Арина Сергеевна - аспирант, Университет ИТМО, Санкт-Петербург, 197101, Российская Федерация, [email protected]
Шалыто Анатолий Абрамович - доктор технических наук, профессор, заведующий кафедрой, Университет ИТМО, Санкт-Петербург, 197101, Российская Федерация, [email protected]
3. Forrest S., Allen L., Perelson A.S., Cherukuri R. Self-nonself discrimination in a computer. Proc. IEEE Symposium on Research in Security and Privacy. Oakland, USA, 1994, pp. 202-212.
4. Timmis J., Neal M.J. A resource limited artificial immune system for data analysis. Knowledge-Based Systems, 2001, vol. 14, no. 3-4, pp. 121-130. doi: 10.1016/S0950-7051(01)00088-0
5. Neri F., Cotta C., Moscato P. Handbook of Memetic Algorithms. Springer, 2012, 370 p. doi: 10.1007/978-3-64223247-3
6. Sudholt D. Memetic algorithms with variable-depth search to overcome local optima. Proc. 10h Genetic and Evolutionary Computation Conference. Atlanta, USA, 2008, pp. 787-794.
7. Smith J.E. Self-adaptative and coevolving memetic algorithms. Studies in Computational Intelligence, 2012, vol. 379, pp. 167-188. doi: 10.1007/978-3-642-23247-3_11
8. Sutton R.S., Barto A.G. Reinforcement Learning: An Introduction. Cambridge, MIT Press, 1998, 344 p.
9. Buzdalova A., Kononov V., Buzdalov M. Selecting evolutionary operators using reinforcement learning: Initial explorations. Proc. 16th Genetic and Evolutionary Computation Conference. Vancouver, Canada, 2014, pp. 1033-1036. doi: 10.1145/2598394.2605681
10. Corus D. On easiest functions for somatic contiguous hypermutations and standard bit mutations. Proc. 17th Genetic and Evolutionary Computation Conference. Madrid, Spain, 2015, pp. 1399-1406. doi: 10.1145/2739480.2754799
11. Savelsbergh M.W.P., Sol M. The general pickup and delivery problem. Transportation Science, 1995, vol. 29, no. 1, pp. 17-29.
12. Zarges C. Theoretical Foundations of Artificial Immune Systems. PhD Thesis. Universitat Dortmund, 2011.
13. Oliveto P.S., He J., Yao X. Time complexity of evolutionary algorithms for combinatorial optimization: a decade of results. International Journal of Automation and Computing, 2007, vol. 4, no. 3, pp. 281-293. doi: 10.1007/s11633-007-0281-3
14. Bottcher S., Doerr B., Neumann F. Optimal fixed and adaptive mutation rates for the LeadingOnes problem. Lecture Notes in Computer Science, 2010, vol. 6238, pp. 1-10. doi: 10.1007/978-3-642-15844-5_1
15. de Castro L.N., von Zuben F.J. Learning and optimization using the clonal selection principle. IEEE Transactions on Evolutionary Computation, 2002, vol. 6, no. 3, pp. 239-251. doi: 10.1109/TEVC.2002.1011539
16. Kelsey J., Timmis J. Immune inspired somatic contiguous hypermutation for function optimization. Lecture Notes in Computer Science, vol. 2723, pp. 207-218.
17. Jansen T., Oliveto P.S., Zarges C. On the analysis of the immune-inspired B-cell algorithm for the vertex cover problem. Lecture Notes in Computer Science, 2011, vol. 6825, pp. 117-131. doi: 10.1007/978-3-642-22371-6_13
18. He J., Yao X. Drift analysis and average time complexity of evolutionary algorithms. Artificial Intelligence, 2001, vol. 127, pp. 57-85. doi: 10.1016/S0004-3702(01)00058-3
19. Mann H.B., Whitney D.R. On a test of whether one of two random variables is stochastically larger than the other. Annals of Mathematical Statistics, 1947, vol. 18, no. 1, pp. 50-60.
20. Holm S. A simple sequentially rejective multiple test procedure. Scandinavian Journal of Statistics, 1979, vol. 6, no. 2, pp. 65-70.
Authors
Nina S. Bulanova - postgraduate, ITMO University, Saint Petersburg, 197101, Russian Federation,
Arina S. Buzdalova - postgraduate, ITMO University, Saint Petersburg, 197101, Russian Federation, [email protected]
Anatoly A. Shalyto - D.Sc., Professor, Head of Chair, ITMO University, Saint Petersburg, 197101, Russian Federation, [email protected]