Научная статья на тему 'Исследование эффективности мульти-меметического алгоритма эволюции разума'

Исследование эффективности мульти-меметического алгоритма эволюции разума Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
175
20
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ГЛОБАЛЬНАЯ ОПТИМИЗАЦИЯ / GLOBAL OPTIMIZATION / МУЛЬТИ-МЕМЕТИЧЕСКИЕ АЛГОРИТМЫ / MULTI-MEMETIC ALGORITHMS / АЛГОРИТМ ЭВОЛЮЦИИ РАЗУМА / MIND EVOLUTIONARY COMPUTATION ALGORITHM

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Сахаров М. К., Поноренко А. В.

В работе представлена мульти-меметическая модификация простого алгоритма эволюции разума с использованием случайной гиперэвристики. Предложена программная реализация базового алгоритма, а также методов локального поиска. Проведено широкое исследование эффективности работы мульти-меметического алгоритма и его программной реализации в зависимости от вида используемых методов локального поиска и их количества. Исследование выполнено с использованием многомерных тестовых функций различных классов. На основе анализа полученных результатов даны рекомендации по выбору вида методов локального поиска и их комбинаций.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Investigating the Multi-memetic Mind Evolutionary Computation Algorithm Efficiency

The article proposes a multi-memetic modification of a simple SMEC algorithm, using random hyper-heuristics. Presents the software algorithm and memes used (Nelder-Mead method, method of random hyper-sphere surface search, Hooke-Jeeves method). Conducts a comparative study of the efficiency of the proposed algorithm depending on the set and the number of memes. The study has been carried out using Rastrigin, Rosenbrock, and Zakharov multidimensional test functions. Computational experiments have been carried out for all possible combinations of memes and for each meme individually.

Текст научной работы на тему «Исследование эффективности мульти-меметического алгоритма эволюции разума»

Ссылка на статью:

// Математика и математическое моделирование. 2017. № 06. С. 70-82

DOI: 10.24108/mathm.0617.0000090

Представлена в редакцию: 13.11.2017

© НП «НЕИКОН» УДК 519.7

Исследование эффективности мульти-меметического алгоритма эволюции разума

Сахаров М.К.1'*, Поноренко A.B.1 'max.5fii90@; gmail.com

1МГТУ им. Н.Э. Баумана, Москва, Россия

В работе представлена мульти-меметическая модификация простого алгоритма эволюции разума с использованием случайной гиперэвристики. Предложена программная реализация базового алгоритма, а также методов локального поиска. Проведено широкое исследование эффективности работы мульти-меметического алгоритма и его программной реализации в зависимости от вида используемых методов локального поиска и их количества. Исследование выполнено с использованием многомерных тестовых функций различных классов. На основе анализа полученных результатов даны рекомендации по выбору вида методов локального поиска и их комбинаций.

Ключевые слова: глобальная оптимизация; мульти-меметические алгоритмы; алгоритм эволюции разума

Введение

В задачах глобальной оптимизации целевая функция зачастую имеет вычислительную сложность, высокую размерность и нетривиальный ландшафт. Такие задачи имеют высокую практическую значимость и для их решения предложено множество популяци-онных алгоритмов глобальной оптимизации [1,2]. Возможность локализации с высокой вероятностью субоптимальных (близких к оптимальному) решений - одно из главных преимуществ данного класса алгоритмов, помимо их универсальности и простоты реализации. В практически значимых задачах оптимизации часто достаточными являются именно такие решения.

В то же время, исследования [3,4] показывают, что зачастую одного метода недостаточно - необходима его модификация путем гибридизации с другими методами оптимизации. Меметические алгоритмы, МА, являются одним из перспективных современных направлений в этой области. В 1976 году Р. Докинз предложил концепцию мема [5]. На ней основаны МА, представляющие собой популяционные метаэвристические алгоритмы поисковой оптимизации. Мем является реализацией какого-либо метода локальной оптимизации, уточняющего решения в процессе поиска. МА можно рассматривать как сочета-

Математика U Математическое

моделирование

Сетевое научное издание http://mathmelpub.ru

ние популяционного поиска глобального оптимума и процедур локального уточнения решений, которое дает синергетический эффект.

В случаях, когда априорная информация о решаемой задаче отсутствует, МА может показать результат не только лучше, но и даже хуже, чем обычные эволюционные алгоритмы [4,6]. Поскольку существует относительно немного теоретических исследований, посвященных тому, какую конфигурацию МА рекомендуется использовать для решения black-box задач оптимизации, многие исследователи склоняются именно к адаптивным алгоритмам, которые в процессе поиска самостоятельно подбирают наиболее эффективные методы локальной оптимизации для определённых областей пространства поиска.

Авторами предложена мульти-меметическая модификация простого алгоритма SMEC, использующая случайную гиперэвристику [7]. Представлена программная реализация алгоритма, а также используемых мемов. Выполнено сравнительное исследование эффективности предложенного алгоритма в зависимости от набора и числа мемов. Исследование проводилось с использованием многомерных тестовых функций различных классов [8].

1. Постановка задачи и простой алгоритм эволюции разума

Рассматриваем задачу глобальной безусловной минимизации

min | Ф(X) = Ф(X •) = Ф* , (1)

где Ф (X) — скалярная целевая функция; Ф (X *) = Ф * — ее искомое минимальное значение;

-мерный вектор варьируемых параметров; -мерное

арифметическое пространство. Задана область

D0 = {X | xmin <xi< хтах, i G [ 1 : | X | ] } (2)

для генерации начальной популяции решений.

В работе рассматриваем класс алгоритмов эволюции разума (MEC) [9-11], которые относятся к алгоритмам инспирированным человеческим обществом. Данный класс подразумевает моделирование определенных аспектов поведения человека в обществе. При этом индивид - это разумный агент, который взаимодействует с аналогичными индивидами. Для принятия решений он учитывает как влияние со стороны своей группы, так и со стороны членов других групп. Для достижения высокого положения в группе, ему нужно учиться у наиболее успешных индивидов этой группы. С другой стороны, индивид руководствуется таким же принципом, конкурируя с другими группами. Это необходимо для того, чтобы группа становилась более успешной по сравнению с другими.

Базовым алгоритмом семейства MEC, называемый простым алгоритмом эволюции разума (Simple MEC, SMEC), выбран для исследования в силу следующих причин: в настоящее время этот алгоритм и его модификации успешно используются для решения широкого класса задач оптимизации; алгоритм имеет высокий потенциал развития для организации параллельных вычислений, особенно, в слабосвязанных системах [12]; алгоритм недостаточно изучен - известно относительно небольшое число его модификаций

(тогда как для известного популяционного алгоритма роя частиц, например, известны десятки модификаций [1]).

Популяция алгоритма SMEC состоит из лидирующих групп Sb — ( S2, S2, ■ ■ S| gb|) и

отстающих групп Sw — ( S W,SW, ■ ..,S j^w | ), , число индивидов в которых полагаем одинаковым и равным | S| . Локальные доски объявлений групп S b , SjW обозначаем С b, С™ соответственно. Глобальную доску объявлений обозначаем Cg.

Алгоритм SMEC основан на следующих операциях: инициализация групп, локальные состязания (similar-taxis) и диссимиляция (dissimilation).

Операция инициализации групп создает группы Sf,SW и размещает их в области поиска. Рассмотрим схему операции на примере группы Sj.

1) Генерируем случайный вектор Xj, ь компоненты которого равномерно распределены в области поиска ZX Этот вектор отождествляется с индивидом s j , 1 группы Sj.

2) Определяем начальные координаты остальных индивидов данной группы по формуле

X, у — X, 1+V х |( 0, а) , )£[ 2 : | S | ] , (3)

где iV| х |( 0, а) - ( | X| X 1 ) -вектор независимых вещественных случайных чисел, распределенных по нормальному закону с математическим ожиданием и средним квадратичным отклонением, равными и соответственно.

Операция локальных состязаний реализует локальный поиск минимума фитнесс-функции каждой из групп Sf,Sw. Схема этой операции для группы Sj имеет следующий вид.

1) С доски объявлений берем информацию о текущем индивиде-победителе группы Sj. Пусть это будет индивид s j, у _/'й £ [ 1 : | S | ] .

2) Определяем новые координаты остальных индивидов s',y, j £ [ 1 : | S | ] , j Ф данной группы по правилу вида (3), то есть размещаем случайным образом вокруг победителя в соответствии с нормальным законом распределения.

3) Вычисляем значения целевой функции для всех агентов группы Ф j у — Ф (Xj' у) ,

j £ [ 1 : | S | ] .

4) Определяем нового победителя группы s',fc £ [ 1 : | S | ] , как индивида данной группы, который имеет минимальный текущий счет.

5) Заносим информацию о новом победителе группы s ' kb на доски объявлений

С, CS.

Операция диссимиляции управляет глобальным поиском. Схема операции имеет следующий вид.

1) С глобальной доски объявлений считываем текущие счета победителей групп Sf,Sw.

2) Выполняем сравнение указанных счетов между собой. Если счет некоторой лидирующей группы Sf меньше счета одной из отстающих групп Sy", то последняя группа за-

нимает место группы Бь в наборе лидирующих групп Бь, а группа Бь - место группы Б™ среди отстающих групп 5™. Если счет группы 5™ ниже счетов всех лидирующих групп, то удаляем группу Б™ из популяции.

3) С помощью операции инициализации взамен каждой из удаленных групп инициализируем новую группу.

Операции локальных состязаний и диссимиляции итерационно повторяем до тех пор, пока имеет место увеличение максимального счета лидирующих групп. При прекращении роста этого показателя, решение задачи, соответствующее победителю лучшей из лидирующих групп, объявляем искомым приближением к решению задачи (1).

2. Мульти-меметическая модификация алгоритма БМЕС

В мульти-меметических алгоритмах используется несколько мемов для поиска оптимума. Решение о выборе мема для конкретного индивида в популяции очень часто принимается динамически. При этом методы локального поиска, ориентированные на различные задачи, конкурируют между собой. В результате эффективность работы МА в целом остается высокой, несмотря на то, что предопределенная информация о решаемой задаче отсутствует.

Рассмотрим основную задачу конструирования мульти-меметических алгоритмов: выбор целесообразной стратегии использования того или иного мема из роя доступных мемов М = (т^,} Е [ 1 : \ М \] ) . На выбор мемов влияет значение их определенных характеристик и/или исследуемый в данный момент фрагмент области поиска [13, 14].

В работе используем три метода локальной оптимизации ( \ М \ = 3 ) - метод Нелдера-Мида [15], метод Хука-Дживса [16] и метод случайного поиска на поверхности гиперсферы [1]. Все методы являются методами нулевого порядка, так как вычисление производной целевой функции в практически значимых задачах, зачастую является крайне ресурсоемкой задачей. Для выбора того или иного мема на каждой итерации работы алгоритма использовалась случайная гиперэвристка, когда в каждой точке принятия решения мем выбирают случайным образом из роя мемов и вероятность выбора каждого из мемов не меняется в процессе итераций. Схему модифицированной операции локальных состязаний с учетом использования мемов, описывает следующая последовательность шагов.

1) С доски объявлений берем информацию о текущем индивиде-победителе группы . Пусть это будет индивид , .

2) Случайным образом для группы Б^ выбираем мем тj из набора доступных мемов .

3 ) Определяем координаты всех индивидов остальных индивидов , ,

} ^ }ь данной группы по правилу вида (3), то есть размещаем случайным образом вокруг победителя в соответствии с нормальным законом распределения.

4) Запускаем выбранный мем из координат всех индивидов группы 5 ■ j, } Е [ 1: \ Б \ ] и определяем координаты уточненных решений. Каждый запуск мема ограничен числом итераций локального поиска (свободный параметр алгоритма).

4) Вычисляем значения целевой функции для всех агентов группы после стадии локального поиска Ф ^j = Ф (X[ j), j G [ 1 : \ S\] .

5) Определяем нового победителя группы s[ik kb G [ 1: \S\], как индивида данной группы, который имеет минимальный текущий счет.

6) Заносим информацию о новом победителе группы s ■ кь на доски объявлений

С, Сб.

3. Программная реализация и исследование эффективности

Меметическая модификация алгоритма SMEC, а также используемые мемы реализованы в среде Wolfram Mathematica. Предложенная авторами программная реализации имеет модульную структуру, что облегчает процесс модификации алгоритмов, и использования различных вспомогательных операций, например, декомпозиции области поиска.

В рамках работы проведено сравнительное исследование эффективности работы ме-метического алгоритма в зависимости от используемых алгоритмов локальной оптимизации и их числа. Поскольку эффективность алгоритма существенно зависит от случайных значений свободных параметров, во всех исследованиях каждый вычислительный эксперимент проводился по методу мультистарта 100 раз; число итераций стагнации Astop = 5 0 ; максимальное число итераций локального поиска при каждом запуске мема . В качестве критериев оценки эффективности используется среднее значение целевой функции по итогам мультистарта , а также число итераций , которое при заданном ограничении на число итераций локального поиска однозначно определяет максимальное число испытаний.

Для вычислительных экспериментов использовались восьмимерный функции ( \ X \ = 8) Растригина, Розенброка и Захарова [8]. Глобальный минимум всех функций равен нулю ; для функций Растригина и Захарова они достигается в точке X* = (0,0,...,0), а для функции Розенброка - в точке X* = (1,1,..., 1) .

Сравнительное исследование проводилось для всех возможных комбинаций мемов. В начале испытания проводились с использованием всех мемов . Здесь

т 1 - метод Нелдера-Мида, т2 - метод случайного поиска по поверхности гиперсферы, а тз - метода Хука-Дживса. Затем испытания проводились с использованием всех пар мемов - , и . В заключении аналогичные эксперименты были

проведены для каждого мема в отдельности.

4. Анализ результатов

В таблице 1 представлены средние значения целевых функций, полученные при различных комбинациях мемов по итогам мульти-старта. Для функций Растригина и Розен-брока успешными оказались комбинации мемов, включающих в себя метод тз, а для функции Захарова успешными оказались все наборы мемов, но, в то же время, наборы мемов содержащие метод демонстрируют более высокую точность решения. Данные

результаты свидетельствуют о быстрой сходимости метода т 3 к локальному оптимуму по сравнению с методами т 1 и т 2, так как все методы выполняют не более Я х5 итераций.

Таблица 1 - Средние значения целевых функций Ф по результатам мульти-старта

Набор мемов Функкия Растригина Функция Розенброка Функция Захарова

ф = 6 , 6 8Б-5 ф = 1 , 8 ЗБ-2 ф =1,51Б-5

{т1,т2} ф = 9 , 7 8Б-0 ф = 4,68Б-0 ф = 3,85Б-2

{т2,т3} ф = 5 ,8 4Б-5 ф =1,52Б-2 ф =1,33Б-5

{т1(т3} ф = 5 ,9 9Б-5 ф = 7,51Б-3 ф =1,49Б-5

ф = 1 ,2 2 Б+1 ф = 4,53Б-0 ф = 4,52Б-2

{™2} ф = 9 , 0 4Б-0 ф = 5,04Б-0 ф = 3,87Б-2

{™з} ф = 4,8 4Б-5 ф = 7,52Б-3 ф =1,337Б-5

Для выявления наиболее эффективной комбинации мемов воспользуемся процедурой однофакторного дисперсионного анализа и критерием Тьюки [17]. Так полученные как средние значения близки между собой, необходимо определить есть ли между ними статистически значимая разница.

Результаты статистического анализа (рис. 1-3) демонстрируют что для функции Рас-тригина наиболее эффективным является использования только метода , в то время как для функции Розенброка наиболее эффективными являются два набора мемов - и

{т3}, так как они статистически неразличимы между собой. Для функции Захарова все наборы мемов являются статистически эквивалентными, поэтому вывод о наиболее эффективном наборе можно сделать на основе среднего числа итераций Лф.

Критерий Тьюки для функции Растригина Различия между 123; 23; 13; 3

33-123 I-♦-1

13-123 I-•-1

3-123 I-• I

13-23 I- I—•-1

3-23 I-♦-1

3-13 I-•-1

-0.000025 -0.000020 -(}.0000*5 -0.000010 -0.000005 -0.000000 0.000005 о.оооош

Рисунок 1 - Результаты дисперсионного анализа для функции Растригина

Рисунок 2 - Результаты дисперсионного анализа для функции Розенброка

Рисунок 3 - Результаты дисперсионного анализа для функции Захарова

Анализа среднего числа итераций (рис. 4-6) показывает, что использование наиболее эффективных наборов мемов позволяет отыскать оптимальное решение за меньшее число итераций по сравнению с менее эффективными наборами. Наборы мемов, при использовании которых глобальный оптимум не был локализован, в большинстве случаев, также привели к завершению работы алгоритма через небольшое число итераций, что свидетельствует о преждевременной сходимости метода в области некоторого локального минимума. Дополнительно следует отметить, что не наблюдается зависимости общего числа итераций алгоритма от количества используемых мемов.

N

120 100 80 60 40 20

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

1-2-3 1-2 2-3 1-3 1 2 3

Рисунок 4 - Результаты дисперсионного анализа для функции Растригина

150-

100

N

50

1-2-3 1-2 2-3 1-3 1 2 3

Рисунок 5 - Результаты дисперсионного анализа для функции Розенброка

150

100

N

50

1-2-3 1-2 2-3 1-3 1 2 3

Рисунок 6 - Результаты дисперсионного анализа для функции Захарова

0

0

0

Заключение

В работе представлена мульти-меметическая модификация простого алгоритма эволюции разума (Simple MEC, SMEC). Разработано программное обеспечение, реализующее данную модификацию, а также используемые методы локального поиска.

Выполнен широкий вычислительный эксперимент по исследованию эффективности различных наборов мемов в зависимости от их вида и количества. Для исследования использованы многомерные функции Растригина, Розенброка и Захарова.

Результаты исследования демонстрируют, что метод Хука-Дживса оказался наиболее эффективным для выбранных функций, так как его наличие в наборе мемов позволяет существенно улучшить качество получаемого решения. При этом результаты статистических тестов показывают, что использование дополнительных методов в наборе мемов, зачастую не оказывает значительного влияния на результаты работы алгоритма.

В развитии работы авторы планирует расширить набор используемых тестовых функций и увеличить число используемых методов локального поиска.

Работа поддержана РФФИ (проект 16-07-00287).

Список литературы

1. Карпенко А.П. Современные алгоритмы поисковой оптимизации. Алгоритмы, вдохновленные природой: учеб. пособие. М.: Изд-во МГТУ им. Н.Э. Баумана, 2014. 446 с.

2. Weise T. Global optimization algorithms: Theory and application. Kassel: Univ. of Kassel, 2008. 758 p.

3. Krasnogor N. Studies on the theory and design space of memetic algorithms: Doct. diss. Bristol: Univ. of the West of England, 2002.

4. Handbook of memetic algorithms / Ed. by Neri F., Cotta C., Moscato P. B.: Springer, 2012. 368 p. DOI: 10.1007/978-3-642-23247-3

5. Dawkins R. The selfish gene. N.Y.: Oxf. Univ. Press, 1976. 224 p.

6. Sakharov M.K., Karpenko A.P. New parallel multi-memetic MEC-based algorithm for loosely coupled systems // Optimization and applications: VII Intern. conf. on optimization methods and applications: OPTIMA-2016 (Petrovac, Montenegro, Sept. 25th - October 2nd, 2016): Proc. Moscow, 2016. Pp. 124-126.

7. Yew-Soon Ong, Meng-Hiot Lim, Ning Zhu, Kok-Wai Wong. Classification of adaptive memetic algorithms: A comparative study // IEEE Trans. on Systems, Man, and Cybernetics. Pt. B. 2006. Vol. 36. Iss. 1. Pp. 141-152. DOI: 10.1109/TSMCB.2005.856143

8. Handbook of test problems in local and global optimization / Floudas C.A. a.o. Dordrecht; Boston: Kluwer, 1999. 441 p.

9. Chengyi Sun, Yan Sun, Wanzhen Wang. A survey of MEC: 1998-2001 // 2002 IEEE intern. conf. on systems, man and cybernetics: IEEE SMC 2002 (Hammamet, Tunisia, October 6-9, 2002): Proc. Vol. 6. N.Y.: IEEE, 2002. Pp. 445-453. DOI: 10.1109/ICSMC.2002.1175629

10. Jing Jie, Jianchao Zeng, Youzhi Ren. Improved mind evolutionary computation for optimizations // 5th world congress on intelligent control and automation: WCICA 2004 (Hangzhou, China, June 15-19, 2004): Proc. N.Y.: IEEE, 2004. Pp. 2200 - 2204. DOI: 10.1109/WCICA.2004.1341978

11. Jing Jie, Chongzhao Han, Jianchao Zeng. An extended mind evolutionary computation model for optimizations // Applied Mathematics and Computation. 2007. Vol. 185. No. 2. Pp. 1038 - 1049. DOI: 10.1016/j.amc.2006.07.037

12. Sakharov M.K., Karpenko A.P. Performance investigation of mind evolutionary computation algorithm and some of its modifications // 1st intern. scientific conf. "Intelligent information technologies for industry": IITI'16 (Sochi, Russia, May 20-31, 2016): Proc. Vol. 1. Z.: Springer, 2016. Pp. 475 - 486. DOI: 10.1007/978-3-319-33609-1 43

13. Nguyen Q.H., Ong Y.S., Krasnogor N. A study on the design issues of memetic algorithm // IEEE congress on evolutionary computation: CEC 2007 (Singapore, Singapore, September 25-28, 2007): Proc. N.Y.: IEEE, 2007. Pp. 2390-2397. DOI: 10.1109/CEC.2007.4424770

14. Карпенко А.П., Сахаров М.К. Мультимемеевая глобальная оптимизация на основе алгоритма эволюции разума // Информационные технологии. 2014. № 7. С. 23-30.

15. Nelder J.A., Mead R. A simplex method for function minimization // Computer J. 1965. Vol. 7. No. 4. Pp. 308-313. DOI: 10.1093/comjnl/7.4.308

16. Hooke R., Jeeves T.A. "Direct search" solution of numerical and statistical problems // J. of the Association for Computing Machinery (ACM). 1961. Vol. 8. No. 2. Pp. 212-229. DOI: 10.1145/321062.321069

17. Tukey J.W. Comparing individual means in the analysis of variance // Biometrics. 1949. Vol. 5. No. 2. Pp. 99-114. DOI: 10.2307/3001913

Mathematics & Mathematical Modelling

Electronic journal http://mathmelpub.ru

Mathematics and Mathematical Modeling, 2017, no. 06, pp. 70-82.

DOI: 10.24108/mathm.0617.0000090

Received: 13.11.2017

© NP "NEICON"

Investigating the Multi-memetic Mind Evolutionary Computation Algorithm Efficiency

M.K. Sakharov1*, A.V. Ponorenko1

max-&fii9 O'g gmail.com :Bauman Moscow State Technical University, Moscow, Russia

Keywords: global optimization; multi-memetic algorithms; mind evolutionary computation algorithm

In solving practically significant problems of global optimization, the objective function is often of high dimensionality and computational complexity and of nontrivial landscape as well. Studies show that often one optimization method is not enough for solving such problems efficiently - hybridization of several optimization methods is necessary.

One of the most promising contemporary trends in this field are memetic algorithms (MA), which can be viewed as a combination of the population-based search for a global optimum and the procedures for a local refinement of solutions (memes), provided by a synergy. Since there are relatively few theoretical studies concerning the MA configuration, which is advisable for use to solve the black-box optimization problems, many researchers tend just to adaptive algorithms, which for search select the most efficient methods of local optimization for the certain domains of the search space.

The article proposes a multi-memetic modification of a simple SMEC algorithm, using random hyper-heuristics. Presents the software algorithm and memes used (Nelder-Mead method, method of random hyper-sphere surface search, Hooke-Jeeves method). Conducts a comparative study of the efficiency of the proposed algorithm depending on the set and the number of memes. The study has been carried out using Rastrigin, Rosenbrock, and Zakharov multidimensional test functions. Computational experiments have been carried out for all possible combinations of memes and for each meme individually.

According to results of study, conducted by the multi-start method, the combinations of memes, comprising the Hooke-Jeeves method, were successful. These results prove a rapid convergence of the method to a local optimum in comparison with other memes, since all methods perform the fixed number of iterations at the most.

The analysis of the average number of iterations shows that using the most efficient sets of memes allows us to find the optimal solution for the less number of iterations in comparison with the less efficient sets. It should be additionally noted that there is no dependence of the total number of the algorithm iterations on the number of memes used.

The study results demonstrate that the Hooke-Jeeves method proved to be the most efficient for the chosen functions, since its presence in a set of memes allows a significantly improving quality of the solution obtained. At the same time, the results of statistical tests show that the use of additional methods in a set of memes often has no significant effect on the results of the algorithm.

References

1. Karpenko A.P. Sovremennye algoritmy poiskovoj optimizatsii. Algoritmy vdohnovlennye prirodoj [Modern algorithms of search engine optimization. Algorithms inspired by nature]: a textbook. Moscow: Bauman MSTU Publ., 2014. 446 p. (in Russian).

2. Weise T. Global optimization algorithms: Theory and application. Kassel: Univ. of Kassel, 2008. 758 p.

3. Krasnogor N. Studies on the theory and design space of memetic algorithms: Doct. diss. Bristol: Univ. of the West of England, 2002.

4. Handbook of memetic algorithms / Ed. by Neri F., Cotta C., Moscato P. B.: Springer, 2012. 368 p. DOI: 10.1007/978-3-642-23247-3

5. Dawkins R. The selfish gene. N.Y.: Oxf. Univ. Press, 1976. 224 p.

6. Sakharov M.K., Karpenko A.P. New parallel multi-memetic MEC-based algorithm for loosely coupled systems. Optimization and applications: VII Intern. conf. on optimization methods and applications: OPTIMA-2016 (Petrovac, Montenegro, Sept. 25th - October 2nd, 2016): Proc. Moscow, 2016. Pp. 124-126.

7. Yew-Soon Ong, Meng-Hiot Lim, Ning Zhu, Kok-Wai Wong. Classification of adaptive memetic algorithms: A comparative study. IEEE Trans. on Systems, Man, and Cybernetics, Pt. B, 2006, vol. 36, iss. 1, pp. 141-152. DOI: 10.1109/TSMCB.2005.856143

8. Handbook of test problems in local and global optimization / Floudas C.A. a.o. Dordrecht; Boston: Kluwer, 1999. 441 p.

9. Chengyi Sun, Yan Sun, Wanzhen Wang. A survey of MEC: 1998-2001. 2002 IEEE intern. conf. on systems, man and cybernetics: IEEE SMC 2002 (Hammamet, Tunisia, October 6-9, 2002): Proc. Vol. 6. N.Y.: IEEE, 2002. Pp. 445-453. DOI: 10.1109/ICSMC.2002.1175629

10. Jing Jie, Jianchao Zeng, Youzhi Ren. Improved mind evolutionary computation for optimizations. 5th world congress on intelligent control and automation: WCICA 2004 (Hangzhou, China, June 15-19, 2004): Proc. N.Y.: IEEE, 2004. Pp. 2200 - 2204. DOI: 10.1109/WCICA.2004.1341978

11. Jing Jie, Chongzhao Han, Jianchao Zeng. An extended mind evolutionary computation model for optimizations. Applied Mathematics and Computation, 2007, vol. 185, no. 2, pp. 1038 - 1049. DOI: 10.1016/j.amc.2006.07.037

12. Sakharov M.K., Karpenko A.P. Performance investigation of mind evolutionary computation algorithm and some of its modifications. 1st intern. scientific conf. "Intelligent

information technologies for industry": IITI'16 (Sochi, Russia, May 20-31, 2016): Proc. Vol. 1. Z.: Springer, 2016. Pp. 475 - 486. DOI: 10.1007/978-3-319-33609-1 43

13. Nguyen Q.H., Ong Y.S., Krasnogor N. A study on the design issues of memetic algorithm. IEEE congress on evolutionary computation: CEC 2007 (Singapore, Singapore, September 25-28, 2007): Proc. N.Y.: IEEE, 2007. Pp. 2390-2397. DOI: 10.1109/CEC.2007.4424770

14. Karpenko A.P., Sakharov M.K. Multi-memes global optimization based on the algorithm of mind evolutionary computation. Informatsionnye tekhnologii [Information Technologies], 2014, no. 7, pp. 23-30 (in Russian).

15. Nelder J.A., Mead R. A simplex method for function minimization. Computer J., 1965, vol. 7, no. 4, pp. 308-313. DOI: 10.1093/comjnl/7.4.308

16. Hooke R., Jeeves T.A. "Direct search" solution of numerical and statistical problems. J. of the Association for Computing Machinery (ACM), 1961, vol. 8, no. 2, pp. 212-229.

DOI: 10.1145/321062.321069

17. Tukey J.W. Comparing individual means in the analysis of variance. Biometrics, 1949, vol. 5, no. 2, pp. 99-114. DOI: 10.2307/3001913

i Надоели баннеры? Вы всегда можете отключить рекламу.