#
RUDN Journal of Engineering researches Вестник РУДН. Серия: Инженерные исследования
2017 Том 18 № 2 254-265
http://journals.rudn.ru/engineering-researches
DOI 10.22363/2312-8143-2017-18-2-254-265 УДК 004.023, 517.977
ЭВОЛЮЦИОННЫЕ АЛГОРИТМЫ ДЛЯ РЕШЕНИЯ ЗАДАЧИ ОПТИМАЛЬНОГО УПРАВЛЕНИЯ
А.И. Дивеев1'2, С.В. Константинов2
1 Федеральный исследовательский центр «Информатика и управление» Российской академии наук ул. Вавилова, 44, Москва, Россия, 119333 2 Российский университет дружбы народов, ул. Миклухо-Маклая, 6, Москва, Россия, 117198
В работе приведено описание некоторых популярных эволюционных алгоритмов: генетического алгоритма, алгоритма дифференциальной эволюции, метода роя частиц и алгоритма летучих мышей. С помощью эволюционных алгоритмов решается задача оптимального управления мобильным роботом. Для сравнения эта же задача решается алгоритмами наискорейшего градиентного спуска и случайного поиска. Вычислительные эксперименты показали, что эволюционные алгоритмы дают результаты решения задачи оптимального управления лучше, чем градиентный алгоритм.
Ключевые слова: задача оптимального управления, эволюционные алгоритмы, генетический алгоритм, алгоритм дифференциальной эволюции, метод роя частиц, алгоритм летучих мышей
Численные методы решения задачи оптимального управления в основном заключаются в редукции задачи к задаче нелинейного программирования и использовании различных градиентных методов для поиска оптимального решения [1]. Следует отметить, что градиентные методы находят точки с нулевым значением градиента. Этому требованию удовлетворяют не только точки локального минимума, но и седловые точки, которых у произвольной функции большой размерности может быть больше, чем точек локального минимума. Например, если рассматривать произвольную функцию в пространстве размерности p, то для точки с нулевым значением градиента может быть 2p вариантов знаков для вторых производных, среди которых только один вариант, когда все вторые производные больше нуля, т.е. данная точка есть локальный минимум, один вариант, когда все производные меньше нуля, т.е. точка — локальный максимум и 2p — 2 вариантов, когда данная точка является седлом. Градиентные методы как правило эффективно работают для выпуклых функций, у которых отсутствуют седловые точки и локальный минимум совпадает с глобальным. В задаче оптимального управления, приведенной к задаче нелинейного программирования, достаточно сложно определить свойства функционала и гарантировать его выпуклость даже в ограниченной области пространства поиска.
Современные поисковые эволюционные алгоритмы [2] не требуют от целевой функции специальных свойств, и находят точки локального минимума, причем в процессе поиска могут находить несколько точек локального минимума и в итоге определяют среди них наилучшую. До недавнего времени единственным препятствием применения эволюционных алгоритмов для решения многомерных задач оптимизации была слабость вычислительной техники. Современные компьютеры позволяют эффективно использовать эволюционные алгоритмы для решения задачи оптимального управления.
Цель данной работы заключается в подтверждении высокой эффективности эволюционных алгоритмов в задачах поиска оптимального управления. В работе рассматривается решение задачи оптимального управления популярными эволюционными алгоритмами: генетическим алгоритмом, алгоритмом дифференциальной эволюции, методом роя частиц и алгоритмом летучих мышей. Для сравнения решаем также эту же задачу алгоритмами случайного поиска и градиентного наискорейшего спуска. Результаты сравниваем по средним значениям функционалов.
Генетический алгоритм
Он был разработан в 80-х годах прошлого столетия [3].
В генетическом алгоритме каждую компоненту вектора параметров # = [#1...#8]Т кодируем двоичным кодом Грея. Для кодирования используем с бит под целую часть числа и й бит под дробную часть числа. Всего код одного вектора из восьми параметров содержит 8(с + й) бит. В результате код каждой компоненты вектора параметров определяет положительное число gi, - = 1, ..., 8, в диапазоне от 0 до 2с.
В алгоритме первоначально генерируем случайно Ндвоичных кодов из 8(с + й) бит. Предполагаем, что сгенерированные коды представляют собой коды Грея
где $ = (V, ..., 4+й)), в-е {0, 1}, - = 1, ..., Н,- = 1, ..., 8(с + й).
Далее вычисляем значения функционалов для каждого кода возможного решения. Для этой цели первоначально переводим код Грея каждого возможного решения = (V, ..., 4(с+й>) в двоичный код В = (Ь\, ..., ¿8(с+й)) по формуле
[V.-, если (/ - 1)шоё(с + й) = 0
Ъ) =[ -^ ' ,- = 1, 8(с + й).
[ в'- © в'--1 — иначе
Переводим двоичный код в десятичный для каждых (c + d) бит
c+d
gk = Xb(c+d)(k-1)+l2C l, k = 1, 8 l=1
Вычисляем значения вектора параметров q1 = [q1 ...q8 ]Т возможного решения i по формуле
qk = 2- (q+- q-)+q-,k = 1 -, 8-
Формируем множество оценок целевых функций
f = {/1, ..., H
В алгоритме выполняем одноточечное скрещивание. Отбираем случайно два кода возможных решений
Sa = С^ ^(c+d)^ Sp = С^ ^(c+d)^ a, Р е {1, H}-
Вычисляем вероятность скрещивания по формуле
i / " / "1 Pc = max \~Т , ^ К
[ /а /в J
где /- = min{/i, ..., /н}.
Находим случайно точку скрещивания о е {1, ..., 8(c + d)} и выполняем скрещивание. Получаем два новых кода возможных решений:
SH+i = (s<i, "•, ^0-i, s0, "•, s8(c+d));
SH+2 = (si, .", s0-l, sS0, .", s8(c+d)).
Выполняем операцию мутации с заданной величиной вероятности pm. Для кода нового возможного решения SH+i находим случайно точку мутации ^ е {1, ..., 8(c + d)} и меняем случайно компоненту ¿H+1 е {0, 1}. Тоже повторяем для второго нового возможного решения SH+2.
Оцениваем новые возможные решения по значению минимизируемого функционала, получаем /H+i, /н+2.
Если оценка нового возможного решения лучше наихудшей оценки во множестве возможных решений, то заменяем наихудшее решение на новое возможное решение.
Sw ^ SH+i,/w ^/н+i если/w >/н+i, где/ = max{/i, ...,/н\, i = i, 2.
После выполнения K операций скрещивания алгоритм останавливаем и находим наилучшее возможное решение во множестве.
Алгоритм дифференциальной эволюции
Алгоритм дифференциальной эволюции впервые был представлен в 1995 году авторами К. Прайсом (K. Price) и Р. Сторном (R. Storn) [4]. В алгоритме исполь-
зуется адаптивная мутация особей, которая зависит от распределенности особей популяции в пространстве поиска. При сильной распределености особей, алгоритм производит существенные вариации, а при малой распределенности производятся лишь небольшие изменения особей популяции.
Классическая схема алгоритма дифференциальной эволюции выглядит следующим образом: если доступная информация о системе не позволяет выбрать начальное приближенное решение, то начальная популяция в0 заполняется случайным образом.
Далее на каждой итерации в текущей популяции ^ для каждой особи в создается особь-потомок в' на основе трех родительских особей в1, в2, в3, выбранных из этой популяции случайным образом (в1 Ф в2 Ф в3). Для этого хромосому q' формируют путем линейной комбинации хромосом q1, #2, q3, которые являются вещественными векторами:
q' = ql + - qз), где В — скалярный коэффициент влияния.
После формирования особей в' проверяется их приспособленность и, если она выше чем у родительской особи в, то новая особь заменяет родительскую в популяции:
в если ф«)>ф(5г.)
1 I V, иначе.
При формировании новой хромосомы q' может возникнуть ситуация, когда один или несколько ее компонентов (генов) окажутся за пределами допустимых значений q1+). В этом случае вычисляется новое случайное значение q, которым заменяется компонент в хромосоме.
Также существует модификация алгоритма дифференциальной эволюции, в котором в качестве базовой особи для мутации используется не случайно выбранная из текущей популяции, а наиболее приспособленная особь вЬе8(. Тогда формирование новой хромосомы q' производится по правилу:
q' = ql + ^ьей - ql) + ^ - qз),
где X — дополнительный коэффициент для повышения эффективности использования наиболее приспособленной особи.
Метод роя частиц
Метод роя частиц основан на имитации социально-поведенческих моделей организованных групп [5]. Метод строится на тех же принципах, на основе которых птицы в стае и рыбы в косяке ведут себя удивительно синхронно, двигаясь в том или ином направлении как единое целое. Авторами метода являются Дж. Кеннеди (J. Kennedy) и Р. Эберхарт (R. Eberhart), которые предложили идею канонического метода роя частиц в 1995 году. В методе роя частиц распределенные в
пространстве параметров задачи оптимизации частицы играют роль агентов. Частицы перемещаются в пространстве параметров и изменяют направление и скорость своего движения на основе определенных правил. На каждой итерации вычисляется соответствующее положению частицы значение целевой функции. Также частице доступна информация о наилучшей частице из числа соседних с ней частиц и информация о лучшем собственном значении на предыдущих итерациях. На основе этой информации определяется правило изменения положения и скорости частицы в пространстве параметров.
Новое положение частицы з в момент времени t определяется вектором ее координат qi, а ее скорость — вектором V.
4г,г+1 = + у1,г+ъ
^+1 = ау-, + Рп [0; в] х ^ - qitt) + Рп [0; у] х ^ - qt¿,
где Рп[а; Ь] — п-мерный вектор псевдослучайных значений, равномерно распределенных на интервале [а; Ь]; ^ t — вектор координат частицы с лучшим собственным значением на предыдущих итерациях; qg,t — вектор координат лучшей соседней частицы; а, в, у — свободные параметры алгоритма со следующими рекомендуемыми значениями. а = 0,7298; в = у = 1,4962.
Алгоритм летучих мышей
Алгоритм разработан в 2010 году [6; 7]. Летучие мыши обладают уникальными средствами эхолокации, которая используется для обеспечения полетов в темноте и обнаружения добычи.
В процессе поиска добычи летучие мыши генерируют сигналы, имеющие частоту и громкость а-. Частота сигналов и их громкость может изменяться в заданных пределах — [ют1п; штах] и [0; 1] соответственно. Также может изменяться частота повторения сигналов е [0; 1]. На первом шаге метода случайным распределением задаются соответственно начальные значения qi 0, скорость 0, частота сигнала 0, громкость сигнала а- 0 и частота повторения сигнала 0. Определяется вектор координат X агента, доставляющего глобально лучшее решение. Выполняется миграционная процедура по следующей схеме.
^+1 = qi,t + = + - qЬ);
= ш1^ + (штах - шт^)Р1[-1; 1],
где Р1[-1; 1] — случайное число, равномерно распределенное на интервале [-1; 1].
Далее реализуется случайный локальный поиск по следующей схеме.
q'i,t = qi,t + аРп [-1; 1],
где Рп[—1; 1] — п-мерный вектор псевдослучайных значений, равномерно распределенных на интервале [—1; 1]; а — текущее среднее значение громкостей всех агентов популяции:
1 р
а =-Ха-.
Р1=1
Схема локального поиска повторяется либо до получения вектора ^^, при котором значение фитнес-функции ф^' () лучше, чем при qi, либо до достижения терминального числа повторов схемы. На последнем этапе реализуется эволюция параметров а1 и г 1 по правилу:
а1+ = Ьаа1р
г1,г+1 = г--,о[1 - ехр(-Ь/)],
где Ьа е (0; 1), Ьг > 0 — свободные параметры алгоритма, рекомендуемые значения которых равны 0,9.
Алгоритм случайного поиска
Генерируем случайный вектор параметров q = [?1...?8]Т по формуле
qk = № - q—) + q—, к = 1, ..., 8, (1)
где £ — случайная величина, £ е [0; 1].
Вычисляем оценку вектора/ по значению минимизируемого функционала. Далее генерируем новый вектор q = ^1..^8]Т по формуле (1) и вычисляем его оценку/ Если оценка нового вектора лучше/</, то заменяем вектор и его оценку, q ^ q, / ^ /.
Повторяем генерацию вектора и вычисление его оценки Я раз. В результате получаем наилучший вектор параметров q = ^...д^]"1.
Алгоритм наискорейшего градиентного спуска
В соответствии со стратегией алгоритма наискорейшего градиентного спуска [8] генерируем случайный вектор параметров q = [q1...q8]Т по формуле (1). Вычисляем значение оценки для полученного вектора параметров
/ = J(q).
Вычисляем вектор градиента целевой функции в точке q = [q1.q8]Т
-|Т
J)
dq
J (q + А1)-f J (q + A8)-f 5q 5q
где 5q — заданная малая положительная величина,
Ai = [0 ... 0 5q 0 ... 0]т.
Вычисляем значение второго вектора параметров q = ^1..^8]Т в направлении антиградиента
д = д-'Щ^М 5q), (2)
дq
где первоначально М = М0, М0 — заданное положительное целое число.
Проверяем ограничения для второго вектора параметров д = [g1...g8]'г. Если
Щ ^ % > qi+) V % < gГ), 1 < i < 8, (3)
то уменьшаем значение М
М ^ М - 8т, (4)
где 8т — заданное положительное целое число, 8т << М0.
Если М > 0, то пересчитываем значение второго вектора параметров по формуле (2), иначе завершаем вычисления и считаем решением вектор параметров ^ = [01.»08]Т.
Повторяем вычисления по формулам (2), (4), пока выполняются условия (3). В результате получаем второй вектор параметров g = [g1.g8]Т. Вычисляем значение минимизируемого функционала для второго вектора параметров
/= т.
Вычисляем значения векторов в точках золотого сечения
gа = (1 - у)^ + yg, qв = у^ + (1 - Y)g,
где
а/5-1 g = 1^ « 0,618034. 2
Векторы параметров qa = [ql...q8]'г, qв = [q?.q8]Т в точках золотого сечения удовлетворяют ограничениям (3)
qГ < тт^, gi} < qa, qв < тах^, gi} < q+, i = 1, ..., 8.
Вычисляем значения целевой функции для векторов параметров в точках золотого сечения
У» = 1Ю, / = /(qв). (5)
Если< /, то
Я = qp,/=/, дв = да, / = Г, (6)
qa = (1 - у)Я + УЯ, Г = 1(Яа), (7)
иначе
Я = Яа,/=Г, Яа = Яр, / = /, (8)
др = УЯ + (1 - у)Я, / = /(Яр). (9)
Повторяем вычисления по формулам (5)—(9), пока выполняются условия
e - qа II =
II qв-q
V
X (- qf)2 > Sq. (10)
i=1
При нарушении условия (10) определяем первый вектор параметров. Если /а </, то Я = да,/=/"■, иначе д = дв,/=/. Повторяем вычисления по формулам (5)—(10). Всего выполняем все вычисления заданное количество К1 раз. Результатом вычислений будет последний вектор параметров д = [д1...д8]Т.
Задача параметрического оптимального управления мобильным роботом Задана математическая модель мобильного робота:
х1 = м1ео8(х3); (11)
х2 = м181и(х3); (12)
Хз = «2, (13)
где х = [х1 х2 х3]Т — вектор состояния; и = [и1 и2]Т — вектор управления. Заданы ограничения на управление:
^ и- ^ Ul+, 1 = 1 2.
Заданы начальные условия:
х1(0) = х?, 1 = 1, 2, 3. (14)
Заданы терминальные условия:
х- х1, 1 1, 2, 3
Задан функционал
I = + ) - х{ )2 + (/ ) - х{ )2 + (/) - х3 )2, (15)
где
tf =
если
\(о - xf )2 + (( t) - 4 )2 + ((t) - X3f )2 <!
t — иначе
I , е — заданные положительные величины.
Необходимо найти управление в классе кубических полиномов
«i(t) =
и-, если дх + д2? + д3^2 + 3 < и-и+, если дх + д2? + д3?2 + д4?3 > и+, дх + д2? + д3?2 + д4?3 — иначе
(16)
«2(t ) =
и-, если д5 + д6? + д712 + д8?3 < и-«+, если д5 + д6? + д^2 + д8?3 > и+, д5 + д6? + д^ 2 + д8?3 и—аче
(17)
где значения коэффициентов полиномов ограничены
д- ^ дг ^ д+, г = 1, .••, 8.
Найденные оптимальные коэффициенты кубических полиномов должны обеспечивать минимальное значение заданному функционалу
J = tf +y/(xi(tf ) - xf )2 +((tf ) - x2f )2 + ((tf ) - X3f )2
^ Ш1П.
Сравнительный эксперимент
Для проведения сравнительного эксперимента для каждого возможного решения формировались полиномы для управления в виде (16), (17), интегрировалась система дифференциальных уравнений (11)—(13) из заданных начальных условий (14) и вычислялась оценка по значению функционала (15).
В вычислительном эксперименте использовались следующие параметры модели (11)—(13): х0 = 10, х2 = 10, х0 = 0, х( = 0, х{ = 0, х( = 0, и- = -10, и2- = -10, и+ = 10, и2+ = 10, 1+ = 4, е = 0,02, д- = -8, д+ = 8, г = 1, ..., 8.
В генетическом алгоритме использовали следующие значения параметров: Н = 512, К = 214 = 16384, с = 4, й = 12, рт = 0,7.
В алгоритме случайного поиска количество сгенерированных векторов параметров было Я = 40000.
В алгоритме наискорейшего градиентного спуска использовали следующие параметры: д = 0,0001, М0 = 4096, 5т = 8, К = 128.
В методе роя частиц размер популяции составлял Н = 16, число итераций — Ж= 2048.
В методе, инспирированным летучими мышами, размер популяции составлял H = 32, число итераций — W = 1024.
В алгоритме дифференциальной эволюции размер популяции составлял H = 64, число итераций — W = 1024, число скрещиваний на каждой итерации — S = 32.
Для каждого алгоритма проводилось по 10 испытаний. Вычисления выполняли на компьютере с процессором Intel® Core™, i7-2640M, [email protected] GHz. Результаты вычислений, представляющие собой продолжительность перехода из начального в конечное положение для каждого алгоритма (таблица) показали, что все эволюционные алгоритмы решают рассмотренную задачу оптимального управления приблизительно одинаково и лучше, чем алгоритм случайного поиска. Алгоритм наискорейшего градиентного спуска при решении данной задачи работает неустойчиво и не находит в большинстве случаев приемлемого решения. Среди эволюционных алгоритмов наилучшие результаты показа генетический алгоритм.
Таблица
Результаты вычислительного эксперимента [The results of computational experiments]
Испытание GA DE PSO BIA RS FGD
1 4,9349 6,5507 4,8288 4,3877 5,9813 9,7561
2 4,1093 4,6874 4,8866 4,7422 6,1006 5,4075
3 4,6475 4,7433 4,4649 5,3366 5,2015 18,2190
4 4,4244 5,8050 4,6277 4,6821 5,7782 11,3907
5 4,2987 5,8152 4,4758 4,4747 4,6759 22,5127
6 4,0434 6,4671 4,7797 4,1769 5,2597 28,3650
7 4,1218 4,6943 4,8279 4,5676 5,0867 15,1068
8 4,6303 4,9991 4,9260 5,4031 5,0530 17,1744
9 4,2148 4,6895 4,7935 4,3658 5,9370 30,7676
10 4,4533 5,0282 4,6172 5,5366 5,1588 13,9237
Сред. 4,3878 5,3480 4,7228 4,7673 5,4233 17,2624
Финансирование:
Работа выполнена при поддержке гранта РФФИ № 16-29-04224-офи_м.
СПИСОК ЛИТЕРАТУРЫ
[1] Полак Э. Численные методы оптимизации. М.: Мир, 1974. 376 с.
[2] Карпенко А.П. Современные алгоритмы поисковой оптимизации. Алгоритмы, вдохновленные природой. М.: Издательство МГТУ им. Н.Э. Баумана, 2014. 448 с.
[3] Goldberg D.E. Genetic Algorithms in Search, Optimization, and Machine Learning. Addison-Wesley. 1989. 412 p.
[4] Storn R., Price K. Differential Evolution — A Simple and Efficient Heuristic for Global Optimization over Continuous Spaces / Journal of Global Optimization. 1997. No. 11. P. 341—359.
[5] Kennedy J., Eberhart R. Particle Swarm Optimization / Proceedings of IEEE International Conference on Neural Networks IV 1995. P. 1942—1948.
[6] YangXin-She. A New Metaheuristic Bat-Inspired Algorithm, in: Nature Inspired Cooperative Strategies for Optimization (NISCO 2010). Studies in Computational Intelligence. Berlin: Springer, 2010. Vol. 284. P. 65—74.
[7] Карпенко А.П. Популяционные алгоритмы глобальной поисковой оптимизации. Обзор новых и малоизвестных алгоритмов // Информационные технологии. 2012. № 7. С. 1—32.
[8] Пантелеев А.В., Летова Т.А. Методы оптимизации в примерах и задачах: учеб. пособие. М.: Высшая школа, 2005. 544 с.
© Дивеев А.И., Константинов С.В., 2017
История статьи:
Дата поступления в редакцию: 28 февраля 2017 Дата принятия к печати: 13 марта 2017
Для цитирования:
Дивеев А.И., Константинов С.В. Эволюционные алгоритмы для решения задачи оптимального управления // Вестник Российского университета дружбы народов. Серия «Инженерные исследования». 2017. Т. 18. № 2. С. 254-265.
Сведения об авторах:
Дивеев Асхат Ибрагимович, доктор технических наук, профессор, заведующий сектором проблем кибернетики Федерального исследовательского центра «Информатика и управление» Российской академии наук, профессор департамента Механики и мехатроники инженерной академии Российского университета дружбы народов. Сфера научных интересов:: вычислительные методы для решения задач управления. Контактная информация: e-mail: [email protected]
Константинов Сергей Валерьевич, старший преподаватель департамента Механики и мехатроники инженерной академии Российского университета дружбы народов. Сфера научных интересов: методы оптимизации, эволюционные алгоритмы, генетические алгоритмы, вычислительные методы решения задач оптимального управления. Контактная информация: e-mail: [email protected]
EVOLUTIONARY ALGORITHMS FOR THE PROBLEM OF OPTIMAL CONTROL
A.I. Diveev1'2, S.V. Konstantinov2
1 Institution of Russian Academy of Sciences Dorodnicyn Computing Centre of RAS Vavilova str., 40, Moscow, Russia, 119333 2 Peoples' Friendship University of Russia (RUDN University) Miklukho-Maklaya str., 6, Moscow, Russia, 117198
The paper describes some of the popular evolutionary algorithms: genetic algorithms, differential evolution method, particle swarm optimization and bat-inspired method. With the help of these algorithms the problem of optimal control of a mobile robot is solved. For comparison the same problem is solved with the algorithm of fast gradient descent and random search. The computational experiments showed that evolutionary algorithms provide more accurate results for the optimal control problems than fast gradient descent algorithm.
Key words: optimal control problem, evolutionary algorithms, genetic algorithm, differential evolution method, particle swarm optimization, bat-inspired method
REFERENCES
[1] Polak E. Chislennye metody optimizatsii. M.: Mir, 1974. (In Russ).
[2] Karpenko A.P. Sovremennye algoritmypoiskovoi optimizatsii. Algoritmy, vdokhnovlennyeprirodoi. M.: Izdatel'stvo MGTU im. N.E. Baumana, 2014. (In Russ).
[3] Goldberg D.E. Genetic Algorithms in Search, Optimization, and Machine Learning. Addison-Wesley, 1989.
[4] Storn R., Price K. Differential Evolution — A Simple and Efficient Heuristic for Global Optimization over Continuous Spaces / Journal of Global Optimization. 1997. No. 11. P. 341—359.
[5] Kennedy J., Eberhart R. Particle Swarm Optimization / Proceedings oflEEEInternational Conference on Neural Networks IV. 1995. P. 1942—1948.
[6] Yang Xin-She. A New Metaheuristic Bat-Inspired Algorithm, in: Nature Inspired Cooperative Strategies for Optimization (NISCO 2010). Studies in Computational Intelligence. Berlin: Springer, 2010. Vol. 284. P. 65—74.
[7] Karpenko A.P. Populyatsionnye algoritmy global'noi poiskovoi optimizatsii. Obzor novykh i maloizvestnykh algoritmov. Informatsionnye tekhnologii. 2012. No. 7 P. 1—32. (In Russ).
[8] Panteleev A.V, Letova T.A. Metody optimizatsii v primerakh izadachakh: ucheb. posobie. M.: Vysshaya shkola, 2005. (In Russ).
Article history:
Received: 28 February 2017 Accepted: 13 March 2017
For citation:
Diveev A.I., Konstantinov S.V. (2017) Evolutionary algorithms for the problem of optimal control. RUDN Journal of Engineering Researches, 18(2), 254—265.
Bio Note:
AskhatI. Diveev, Doctor of technical sciences, professor, chief of sector of Cybernetic problems, Federal Research Centre "Computer Science and Control" of Russia Academy of Sciences, professor of department Mechanics and mechatronics, Engineering Academy, Peoples' Friendship University of Russia (RUDN University). Research interests: Computational methods for problems of control. Contact information: e-mail: [email protected]
Sergey V. Konstantinov, senior lecturer of department Mechanics and mechatronics, Engineering Academy, Peoples' Friendship University of Russia (RUDN University). Research interests: Optimization algorithms, evolutionary algorithms, genetic algorithms, computational methods for problems of optimal control. Contact information: e-mail: [email protected]