ISSN 2079-3316 ПРОГРАММНЫЕ СИСТЕМЫ: ТЕОРИЯ И ПРИЛОЖЕНИЯ №2(33), 2017, с. 3-18 УДК 517.977
И. В. Расина, О. В. Фесько
Вырожденные задачи оптимального управления неоднородными дискретными системами
Аннотация. Рассматривается класс неоднородных дискретных систем (НДС), как широко распространенных на практике, так и получающихся при дискретизации непрерывных систем при решении задач оптимизации итерационными методами. Для указанного класса формулируются достаточные условия оптимальности и вводится понятие вырожденной задачи оптимального управления. Распространяются основные подходы к решению этого класса задач, развитые для однородных непрерывных и дискретных систем, такие как преобразования к производным системам и метод кратных максимумов — специальный способ задания функций Кротова в одноименных достаточных условиях. Приводится иллюстративный пример.
Ключевые слова и фразы: неоднородные дискретные системы, вырожденные задачи, оптимальное управление.
Введение
Управляемые процессы с изменяющейся во времени структурой, вплоть до изменения самой природы переменных, участвующих в их описании на различных этапах, широко распространены на практике. К ним можно отнести процессы химического производства, сложные космические операции, динамику роботов и логико-динамических систем, развитие организмов и биологических популяций. Систематическое изучение неоднородных процессов ведется достаточно давно различными научными школами и направлениями в теории систем и управления, укажем некоторые из них [1—5].
Предложенный в [6] подход, основанный на интерпретации абстрактной модели многошаговых управляемых процессов [7] как дискретно-непрерывной системы (ДНС) и распространенный на неоднородные дискретные системы [8], позволил по существу декомпозировать неоднородную систему на однородные подсистемы и обобщить
Работа выполнена при финансовой поддержке Российского фонда фундаментальных исследований (проекты 15-01-01915 А, 15-01-01923 А, 15-07-09091 А).
© И. В. Расина, О. В. ФЕсько, 2017
© Институт программных систем имени А. К. Айламазяна РАН, 2017 © Программные системы: теория и приложения, 2017
естественным образом условия оптимальности и алгоритмы оптимизации, разработанные для однородных систем. Под этим понимаются системы с неизменной структурой, исследуемые в рамках классических представлений теории оптимального управления.
Для многих прикладных задач оптимального управления однородными процессами характерно наличие в постановке задачи скрытых пассивных дифференциальных связей и/или дискретных цепочек, что является признаком вырожденности задачи, влекущей известные трудности при применении регулярных методов и требующей развития специальных [9,10]. Естественно ожидать тех же проблем и для НДС в рассматриваемой трактовке, где на двух уровнях иерархической модели участвуют дискретные связи, что делает актуальным специальное рассмотрение.
Цель данной работы, исходя из естественного обобщения определения вырожденной задачи, распространить (с необходимыми модификациями) на НДС основные подходы к решению вырожденных задач, развитые для непрерывных и дискретных систем.
1. Неоднородные дискретные процессы и основные конструкции
Для краткости здесь и далее предполагается, что все используемые математические объекты и конструкции обладают свойствами необходимыми для проведения тех или иных математических операций.
Рассмотрим иерархическую двухуровневую модель, в которой оба уровня составляют дискретные динамические системы, причем нижний уровень представлен системами однородной структуры. Итак, на верхнем уровне фигурирует дискретная модель общего вида
(1) х(к + 1) = / (к,х(к),и(к)),
к £ К = [к{,кI + 1, ..., кр}, и £ и(к,х),
где к — номер шага (этапа), х и и — соответственно переменные состояния и управления произвольной природы (возможно различной) для различных к, и(&, х) — заданное при каждом к и х множество.
На некотором подмножестве К' С К, кр £ К', и(к) интерпретируется как пара (иу (к),та(к)), где тй(к) — процесс (хл(к,Ь),ил(к,Ь)), Ь £ Т(к,г(к)), тй(к) £ ^ (к,г(к)), а ^ — множество допустимых процессов та, удовлетворяющих системе
(2) ха(к,г + 1) = ¡а (к,г,г,ха(к,г),иа(к,г)),
г е Т = (х),^(г) + 1,...,Ьр(г)}, ха е Ха(к,г,г), иа е и (к,г,г,ха) , г = (к,х,иу) .
Здесь Х*(к, г,Ь), И* (к,г,Ь,х*) — заданные при каждом Ь, г и х* множества. Оператор правой части (1) сводится к следующему:
/ (к, х,и) = в (г, ^(г)) , ^ = {¿г, х*, гр, х%) е Га(к, г),
Га(х) = [^: ^ = т(к, г), гР = д(к, г), х* = £(к, г), х% е Гр(к, г)}.
На множестве О процессов
т = (х(к), и(к), ха(к, г), иа(к, г)) ,
удовлетворяющих (1) и (2), рассматривается задача оптимального управления о минимизации концевого функционала I = Р (х (кр)) при фиксированных к[ = 0, кр, х (к[) и дополнительных ограничениях х(к) е Х(к).
Для решения этой задачи вводится множество Е процессов то, где исключены дискретные цепочки, и обобщенный лагранжиан по аналогии с лагранжианом для ДНС [11]:
Ь =С (х (кР)) — ^ К(к,х(к),и(к))+
к\к'\ кР
+ ^(°а(г) - ^ Ка(г,г,ха(к,г),иа(к,г))^,
к' т(г)\
С (х) =Р (х) + р (кр, х) — (кх, х (кх)), К (к, х, и) =ф (к + 1, / (к, х, и)) — (к, х), ай (к, г, = — V (к + 1,0 (к, г, + р (к, х (к)) + + {к,г,гР,хр) — (к,г,гТ,х*) , Ка(к, г, г, ха, иа) = сра (к, г, г + 1, ¡а (к, г, г, ха, иа)) — ра(к, г, г, ха), (к, г, г) = вир [Ка (к, г, г, ха, иё) : ха е X а(к, г, г),
ил е И (к,г,г,ха)}, 1Л (к, г) = т! [Сл (к,г,<у*) : О*) е Г*(к,г),х* е Х*(к,г,Ьр)}.
8ир[Д (к, х,и) : х е Х(к), и е И (к, х)}, £ е К\К', — Ш [1* (г): х е X (к), иу е И (к, х)}, к е К', I =М[С (х) : х е Г П X (кр)}.
М (к) = ■
Здесь (р (к, х) — произвольный функционал, ^ {к, г, Ь, х/) — произвольное параметрическое семейство функционалов (с параметрами к., г).
Легко убедиться [8], что Ь(го) = I(го) при го £ О. Отсюда непосредственно следуют теоремы [8].
Теорема 1. Для любого элемента го £ О и любых <р, имеет место оценка
I(го) - МI < А = I(го) - I.
Пусть имеются два процесса го1 £ !Э и го11 £ Е и функционалы <р и ^, такие что Ь (го11) < Ь (го1) = I (го1) и го11 £ О. Тогда I(гоп) < I(го1).
Теорема 2. Пусть имеются последовательность процессов {гоа} С О и функционалы ф, , такие 'что:
(1) К (к, ха (к) ,иа (к)) — р (к), к £ К;
(2) Кй (га,г,х* (г) ,ийа (г)) - ^ (га,Ь) — 0, к £ К', * £ Т (г,);
(3) Сй {г,,^) - Iй (га) — 0, к £ К';
(4) С (ха )) — I.
Тогда последовательность {гоа} — минимизирующая для I на О. 2. Вырожденные задачи
Для многих прикладных задач оптимального управления однородными процессами характерно наличие в постановке задачи скрытых пассивных дискретных цепочек, что является признаком вырожденности задачи, влекущей известные трудности при применении регулярных методов и требующей развития специальных. Естественно ожидать тех же проблем и для НДС в рассматриваемой трактовке.
2.1. Расширения ДНС и определение вырожденной задачи
Дадим определение вырожденной задачи оптимального управления НДС.
Рассмотрим класс расширений системы (1), (2) (т.е. множества ее решений), которые получаются:
(а) заменой исходной дискретной системы (1) верхнего уровня системой
(3) у(к +1)= п(к +1,/ (к,х(к),и)),
и £ и(к,х),х £ ^(к,у) = {х: у = г/(к, х)}
по крайней мере на одном шаге к;
(б) заменой, по крайней мере, при одном значении г и на некотором подмножестве Т' дискретной системы нижнего уровня (2) системой
(4) ул(1 + 1) = Г1а(г,1 + 1,!л {г,1,хл,ил)),
ил £ и*(г, г, хл), хл £ 0,л(г, г, у) = {хл : г]Л(г, г, ха) = ул};
(в) выполнением (а) и (б) совместно. Здесь
(5) у = 'П (к,х), ул = 'Пл (г,г,хл)
— расширяющие отображения. Действительно, при выполнении (1),
(2) выполняются, очевидно, и (3), (4). Обратное, в общем случае, неверно. Здесь Р, — многообразия, определяемые равенствами
(3) и (4) соответственно.
Задача оптимального управления называется вырожденной, если в рассматриваемом классе расширений найдется нетривиальное расширение (Е = О), такое что I = МI = (1 = МI.
е о
Очевидно, к классу вырожденных относятся неоднородные дискретные задачи, для которых, по крайней мере, одна из систем (верхнего или нижнего уровня) допускает релаксационное расширение второго типа по терминологии [9].
Пусть система (1) и расширяющее отображение верхнего уровня у = г/(к,х(к)) при к £ К' таковы, что
(6) х(к + 1) = /(к, х, и) = / 1(к, г)(к, х), и),
и(к,х) = и\к,ф,х)),
иначе
х(к + 1) £ П1^,^,^))) = ¡\к,ф,х),
и\к,ф,х(к))).
Тогда, по аналогии, расширяющее отображение нижнего уровня представляет собой при к £ К' решение соответствующей системы: ул= =г)й(к,1,хй(к,1)) такое, что
(7) хл(к, г + 1) = / л(к, г, ил) = / Л1(к, гг1л(к, г, хл), ил), иначе
ха(к,г +1) £ пл(к,г,ф,г,ха(к,г))) = ¡а1(к,г/Па(к,г,ха),
и л(к,г,ф,г,хй(к,г))).
Введем также в рассмотрение тривиальные расширяющие отображения у = х, у* = х*, при которых система (1), (2) не меняется. Построим посредством таких отображений НДС (3), (4) и назовем ее производной по отношению к исходной (1), (2).
На множествах К' и К\К'\&р непосредственно применима теорема 2.3 из [9], которую приведем здесь в несколько измененной формулировке.
Теорема 3. Пусть у (к) и у* (к,Ь) — решения систем (3) и (4), ж (к) е 'П-1 (к, у), Xй (к, г) е (г/й)-1 (к, г, ул) . Тогда х (к), хй (к, г) — решения систем (3), (4).
Обратим внимание, что введение тривиальных расширяющих отображений у = х, уй = хй позволяет описать посредством НДС единообразно всевозможные ситуации, когда на различных шагах могут действовать и различные однородные производные подсистемы, и исходные уравнения (1), (2). В этом смысле производную систему (3), (4) можно рассматривать как обобщенное представление исходной на случай возможных релаксационных расширений однородных подсистем.
На множестве К' действует дискретная система, формирующая неявно оператор верхнего уровня. Возникает вопрос — что будет происходить с системой верхнего уровня на соответствующих шагах, когда дискретная система нижнего уровня преобразуется к производной? Оказывается, если на каком-то шаге при к е К' имеет место эквивалентное преобразование исходной дискретной системы к производной, то при переходе от к к к + 1 происходит «автоматически» соответствующее преобразование к дискретной производной системе на верхнем уровне. Более точно, имеет место следующая
Теорема 4. Пусть при некотором к правая часть (2) не зависит от и", функции в, т, д не зависят от х и и", а производная система (с параметрами к, х) эквивалентна исходной непрерывной подсистеме. Тогда
х(к + 1) е П1(к,^(к,х)), ц(к,х) = г]й(к,х,т(к),$,£(к,х)).
Доказательство аналогично приведенному в [11] для ДНС.
Это утверждение означает, что выполнено условие теоремы 1 для системы верхнего уровня, представленной в терминах множеств переходов, как достаточное для преобразования к эквивалентной производной системе, и построено соответствующее расширяющее отображение.
Таким образом, если, по крайней мере, одно из отображений -ц, г\л в системе (3), (4) необратимо при некотором к, то любая задача с концевым функционалом для исходной НДС вырождена.
Заменяя исходную систему производной, получим производную задачу, эквивалентную исходной (в указанном смысле). Она может быть записана в той же стандартной форме, что и исходная, если функционал задать в форме
11 = ^\у(кР ))= Ы ^ (х).
хея(кр ,у(кР))
2.2. Метод кратных максимумов. Обобщенные уравнения Беллмана
С преобразованиями, описанными в предшествующем разделе, непосредственно связан специальный способ задания функции Кро-това, обеспечивающий не единственность минимумов обобщенного лагранжиана по управляющим переменным. Из получающегося множества решений затем выбирается такое, которое удовлетворяет исходным дискретным связям; тем самым находится решение задачи.
Этот подход, как некий антипод метода Беллмана, был высказан В.Ф. Кротовым в [12,13], в дальнейшем получил развитие как метод кратных максимумов (МКМ) в [6,9,14] и в серии других работ, представленных подробно в обзоре [10]. В данном разделе он распространяется на неоднородные дискретные системы. Если имеются управления, входящие линейно в системы верхнего и/или нижнего уровня, то обеспечивается независимость К и/или от этих управлений. При этом в общем случае пара (<р, ¡р^) до конца не определяется и требует доопределения из дополнительных условий.
Выпишем введенный ранее обобщенный лагранжиан для производной задачи с системой (1), (2) как самостоятельной, где
х £ Р(к,у), хй £ Рл(к,г,г,ул)
играют роль управлений наряду с и, иа, и".
Положим
<р (к,х) = ^ (к,'П (к,х)), ^ = ^ (г,г,хл))
где у1 (к, у), {к, у, Ь, уй) — произвольные функционалы (при фиксированном г). Иными словами, соответствующие пары (<р, <рй) представляют собой суперпозиции произвольных пар (<р1(к,у), <рй1(к,у,1,уй)) и отображений (3), (4), обеспечивающих релаксационные расширения соответственно дискретных систем верхнего и нижнего уровней. Будем иметь:
Ь =С1 (у (кр)) — ^ К1(к,у(к),х(к),и(к))+ к\к'\ кР
+ ^^{Сй1(к,г(к),у(к),1й(к)) —
к'
— ^ Кй1(к,г(к),у'1(к,г),хй(к,г),ий(к,г))), т( к,г( к))\ 1р
С\у(кр)) =Р1 (у) + ^ (кр, у (кр)) — ^ (к!, У1) ,
К1(к,у(к),х(к),и(к)) = (к +1,1] (к +1(к,х(к),и(к)))) — (к, у),
С*1 = — ^(к, х(к), у(к),1*(к)) (к + 1,1! (к +1,в (г, ))) + + ^ (к, у) + ^ (к, г, ф), у* ) — ^ (к, г, г (г),у*) ,
в*1 (г,г, х*, и*) =у*1 (к,г + 1,1] (к,г + 1, ¡а(к,г, х*(к,г), и*(к,г)))) —
— ^ (к, г, у*).
Для систем (1), (2) не единственность максимумов К1 и К*1 по управлениям имеет место, если
](к, х) = д(к, х) + к(к)и, /*(к, г, х, х*) = д(к, г, х, х*) + к(к, г)и*,
т.е. к, к* не зависят от х и х,х* соответственно. Это дает основание применить термин метод кратных максимумов (МКМ) к данному способу задания функций Кротова. Он же условно сохраняется и общем случае релаксационных расширений, хотя не единственности максимумов К1 и К*1 по управлениям может и не быть.
Дальнейшее исследование задачи с помощью этих конструкций может проводиться путем доопределения пары (<р1, <р*1). Для задачи со свободным правым концом (ограничения на выбор х(кр),х*(к,Ьр) отсутствуют) можно построить эту пару посредством условий типа
Беллмана относительно <pl, <pdl:
inf G1 = const, sup R1 = 0, sup Rd1 = 0, inf Gd1 = const,
x u,x ud,xd xd,ud
где и £ U(k,x), uv £ U"(k,x), x £ Q(k,y), ud £ Ud(k,z,t,xc) и xd £ Qdz, f,y). А именно:
tpl (kp,y) = — inf F (x),
xeQ(kF ,y)
<р1(к,у) = sup p1 (k + 1,'q (k + 1,f (t,x,u))), к £ K\K',
u<=U(k,x) xEQ(k,y)
<pd1(k,t) = sup (Z1 (k,t + 1,Vd (k,t + 1,fd (k,t,xd,ud)))) ,
udeud(t,xd)
xd eQd(t,yd)
pd1 (k,z,dd(z),yd) = sup (k + 1,1! (k + 1,6 (z,7c))),
udEUd(k,x) xdEQd(t,yd)
cpd1 (k,y)= sup cpd1 (k,z,T(z),i1d(k,z,i(z))) , к £ K'.
EU" (k,x(k)) xdE Qd (k,yd)
Эта цепочка разрешается в порядке следования от кр к к[.
С учетом введенных тривиальных отображений у = х, yd = xd, при которых (6), (7) переходят в обычные, их можно рассматривать как обобщенные соотношения Беллмана.
3. Пример
Рассмотрим в качестве примера дискретный вариант модели управления рекламной деятельностью, которая представляет собой многомерный и многоэтапный аналог модели [15,16]. Предполагается, что бизнес-план компании предусматривает поэтапное изменение ассортимента и объемов выпуска товаров и услуг с учетом рыночной конъюнктуры и активной рекламной деятельности. Предстоит спланировать стратегию деятельности компании, максимизируя общий экономический эффект.
Увеличение темпа sl продаж г-го продукта считается пропорциональным текущим вложениям в его рекламу и1 и ненасыщенной части рынка, а уменьшение происходит с постоянным темпом Ъг > 0 при отсутствии инвестиций в рекламу:
(8) s*(k + 1) = s\k) + hV ( 1 — ^М) — Ъ* (k)s*(k,t),
t е {t! (k)1tI (к) + l,.. ,,tF (к)}, si(ti) = s} (к),
где к = 0, l,... ,kF — номер этапа, h(к) — постоянный коэффициент, Мг(к) — наибольший темп продаж (при насыщении рынка). Естественные ограничения: 0 < si < Mi, и1 > 0.
Суммарная прибыль компании оценивается величиной
kp
J = Ч(к).
k=0
Изменение прибыли q(k) на этапах характеризуется уравнением:
n(k)
(9) qd(k + l) = qd(k) + ^ e-pt(pi(k)si(k,t) - ui(k,t)),
i=1
qd(ti(k)) = q(k - l), qd(tF(k)) = q(k),
где pi(k) — цена продаваемой продукции, p — коэффициент дисконтирования, п(к) — число продуктов на шаге к, z = (x,ud). Обозначив через х(к) = (х0(к),х1(к),... ,хп(k)(k)) вектор с компонентами q(k, ti(к), si(к, ti(к))), г = l, 2, ..., п(к), приходим к НДС, где верхний дискретный уровень описывается уравнением
х(к + l) = в(к, z, qF(к), {4(к)}), (qd(k, t}(к)), {si(k,tI(к))}) = х(к).
Здесь z = (x,ud), а нижний уровень составляют уравнения (3), (3). Оператор в определяется содержанием принимаемого решения. Например:
х0(к + l) = q(k,tF (к)), xi(k + l)= udi,
i = l,...,n(k + l), P (k, x) < udi < Mi (k + l),
где ll(к, x) — нижняя граница продаж на этапе к + l в зависимости от состояния на предыдущем этапе к. Содержательный смысл этого условия состоит в том, что начальные объемы продаж на каждом этапе могут выбираться в пределах указанных границ.
В этих терминах требуется максимизировать x0(kF), иначе — минимизировать функционал I = -x0(kF) при заданных начальных значениях: x0(ki), x1(ki),. .. хп(к}).
Применим метод кратных максимумов, задав функции Крото-ва в виде tpd = tpd(z,t, s1, s2, .. ., sn) + q, tp = x0 + tp1(k, x1,. .. хп(k)). Рассмотрим соответствующие конструкции G, Rd и Gd. Имеем:
G(x) = —x0 + x0 + p1F — p1i = p1F + const.
Видно, что условие минимума G, как одно из достаточных условий оптимальности, выполняется. Исследование условий на нижнем уровне проведем в две стадии. Вначале зафиксируем slI(к) = х(к) и slF(к), построим границы значений sг(к, t) в силу исходной системы и минимизируем L при этих условиях, а затем дополнительно проварьируем результат по параметрам х(к) и slF(к).
Нижняя граница sla(t) и верхняя граница slb(t) получаются при каждом t как решения (3) при и1 = 0, проходящие через точки (ti, s}= =ufl) и (tp, slF) соответственно:
sa(t) = (s\)(i — v)t-*, si(t) = (s)(i — v)^-.
Из выражения
Gd = qF — qF — tpi(k + 1,ud) + fi(k,x) + tpdlF — ipdu = const(z)
видно, что условие минимума Gd выполняется, поскольку
^i(k +1,ud), fi(k,x), <pd1F, <pdu
фиксированы при фиксированных z. Функцию <pf зададим также по МКМ: Gdd = 0. Отсюда flud (к + 1) = 0, ^ = 0, т.е. ^ = const. Положим ¡pi =0.
Выпишем функцию Rd
Rd =fi{ t + 1,
\k) + h
ii
1
sl(k,t) \
M1(к) )
— bl(k)sl(k, t),
sn (k) + hnun I 1 —
I1—Щ)—'))+
Mn(k)
n(k)
+ ^ e-pt (P*(k)s i(k, t) — u'(k, t)) — vi(t, s1, s2,..., sn),
i=i
где постоянный параметр г для краткости опущен. В соответствии с МКМ функцию <р>1 зададим так, чтобы не зависела от управлений
иг: Rc, = 0.
иг
Условие К^ = 0 сводится к следующему:
^ (1 — ж*) —= 0, 1 = 1,2
Отсюда получаем:
ri* = (h (l — W)ePi)", * = — g ^Mi lIi{l — w)
Rd = e-pt
+
+ CO-1 ^ \n(i — у
Функция К* вогнута по вг на промежутке 0 < вг < Мг, поэтому максимум достигается в стационарной точке либо на границах. Из условия стационарности получаем
в* 1 — 2р1Н + 2 — 2Ь1 + + 4 — № + 4(¥)2
Mi 2
(bi — l)pihi
= const.
Например, рассмотрим случай, когда для некоторого г линия яг = пересекает верхнюю границу: ¡^(Ь) < при Ь1С <Ь < Ьр, где Ь1С — время пересечения, а для остальных г она находится в пределах границ. Другие случаи могут быть проанализированы аналогично. В этом случае решение таково:
[4, t = ^, = < 4, о <г<г\
[4(г), ^ <1 < гр.
На этом первая стадия оптимизации заканчивается. На второй стадии минимизируется функционал Ь после подстановки з*(к,х(к), зр(к),1), что, как видно из его выражения, сводится к следующей операции на каждом шаге:
min | <p<If (к, sf ) — ydi (к, х) — ^ Rdt_(k, t,x,SF) | .
Sf ,X
t( k)
Это решение легко интерпретируется: в начальный момент соответствующего этапа делаются разовые инвестиции до достижения магистрального объема продаж 5г. Далее производятся текущие вложения до момента Í1 для поддержания магистральной интенсивности продаж, после чего они прекращаются.
Заключение
Вырожденность прикладных задач оптимального управления характерна не только для однородных систем, но еще в большей степени и для неоднородных дискретных благодаря разнообразию присутствующих в них связей, в том числе пассивных (что и является признаком вырожденности). Для систематического изучения вырожденных задач для НДС на них распространяются основные понятия и подходы теории вырожденных задач для однородных процессов [10]: переход к регулярной производной системе и метод кратных максимумов как специальный выбор функций Кротова в достаточных условиях оптимальности [11].
Метод кратных максимумов (МКМ) наиболее эффективен в тех случаях, когда функции Кротова определяются им полностью. В общем случае применение МКМ упрощает и регуляризует задачу, но еще не дает полного решения и требует последующего доопределения функций Кротова. Как один из возможных способов доопределения предложены обобщенные соотношения типа Беллмана, регулярные для производной задачи.
Список литературы
[1] А. С. Бортаковский. «Достаточные условия оптимальности управления детерминированными логико-динамическими системами», Информатика. Сер. Автоматизация проектирования, 1992, №2-3, с. 72-79. t 3
[2] С. Н. Васильев. «Теория и применение логико-управляемых систем», Идентификация систем и задачи управления, Труды 2-ой Международной конференции SICPRO'03 (Москва, 2003), с. 23-52. t 3
[3] С. В. Емельянов. Теория систем с переменной структурой, Наука, М., 1970. t 3
[4] J. Lygeros. Lecture Notes on Hybrid Systems, University of Cambridge, Cambridge, 2003. t 3
[5] B.M. Miller, E. Ya. Rubinovich. Optimization of the Dynamic Systems 'with Pulse Controls, Nauka, M., 2005. t 3
[6] В. И. Гурман. «Об оптимальных процессах особого управления», Автоматика и телемеханика, 1965, №5, с. 782-791. t 3,9
[7] В. Ф. Кротов. «Достаточные условия оптимальности для дискретных управляемых систем», ДАН СССР, 172:1 (1967), с. 18-21. t 3
[8] В. И. Гурман, И. В. Расина. «Метод глобального улучшения управления для неоднородных дискретных систем», Программные системы: теория и приложения, 2016, №1, с. 171-186, url: http://psta.psiras.ru/read/psta2016_1_171-186.pdf t 3,6
[9] В. И. Гурман. Вырожденные .задачи оптимального управления, Наука, М., 1977. t 4,7,8,9
10] В. И. Гурман, М. К. Ни. «Вырожденные задачи оптимального управления. I—III», Автоматика и телемеханика, 2011, №3, с. 36-50; №4, с. 57-70; №5, с. 32-46. t 4,9ДБ
11] И. В. Расина. Иерархические модели управления системами неоднородной структуры, Физматлит, М., 2014. t 5,8,15
12] В. Ф. Кротов. «Методы решения вариационных задач на основе достаточных условий абсолютного минимума. I», Автоматика и телемеханика, 1962, №12, с. 1571-1583. t 9
13] В. Ф. Кротов, В. З. Букреев, В. И. Гурман. Новые методы вариационного исчисления в динамике полета, Машиностроение, М., 1969. t9
14] В. Ф. Кротов, В. И. Гурман. Методы и задачи оптимального управления, Наука, М., 1973. t9
15] М. Интрилигатор. Математические методы оптимизации и экономическая теория, Айрис-Пресс, М., 2002. t11
16] S. P. Sethi, G. L. Tomson. Optimal Control Theory: Applications to Management Science, Martinus Nijhoff Publishers, Leiden, 1981. t 11
Рекомендовал к публикации д.т.н. А. М. Цирлин
Пример ссылки на эту публикацию:
И. В. Расина, О. В. Фесько. «Вырожденные задачи оптимального управления неоднородными дискретными системами», Программные системы: теория и приложения, 2017, 8:2(33), с. 3-18. URL: http://psta.psiras.ru/read/psta2017_2_3-18.pdf
Об авторах:
Ирина Викторовна Расина д.ф.-м.н., г.н.с. Исследовательского центра системного анализа Института программных систем им. А. К. Айламазяна РАН, специалист в области моделирования и управления гибридными системами, автор и соавтор более 100 статей и 5 монографий
e-mail: [email protected]
Олесь Владимирович Фесько к.т.н., н.с. ИЦСА Института программных систем им. А.К. Айламазяна РАН
e-mail: [email protected]
Irina Rasina, Oles Fesko. Degenerate optimal control problems for nonuniform discrete systems.
Abstract. The class of nonuniform discrete systems is considered. These systems are prevalent in practice and can be obtained via discretization of continuous systems when solving optimization problems using iterative methods. For these systems the Krotov type sufficient optimality conditions are formulated and the concept of degenerate optimal control problem is introduced. Such approaches as reduction to derived systems and the multiple maximum method are extended to the systems under consideration. An illustrative example is given. (In Russian).
Key words and phrases: nonuniform discrete systems, degenerate problems, optimal control.
References
[1] A. S. Bortakovskiy. "Sufficient conditions for optimal control of deterministic logical-dynamical systems", Informatika. Ser. Avtomatizatsiya proyektirovaniya, 1992, no.2-3, pp. 72-79 (in Russian).
[2] S.N. Vasil'yev. "Theory and application of logical-dynamical systems", Identifikatsiya sistem i zadachi upravleniya, Trudy 2-oy Mezhdunarodnoy konferentsii SICPRO'03 (Moskva, 2003), pp. 23-52 (in Russian).
[3] S. V. Emelyanov. Theory of Systems with Variable Structures, Nauka, M., 1970 (in Russian).
© I. V. Rasina, O. V. Fesko, 2017
© Ailamazyan Program Systems Institute of RAS, 2017 © Program systems: Theory and Applications, 2017
[4] J. Lygeros. Lecture Notes on Hybrid ¡Systems, University of Cambridge, Cambridge, 2003.
[5] B.M. Miller, E.Ya. Rubinovich. Optimization of the Dynamic Systems with Pulse Controls, Nauka, M., 2005.
[6] V. I. Gurman. "Optimal processes of singular control", Autom. Remote Control, 26 (1965), pp. 783-792.
[7] V. F. Krotov. "Sufficient Optimality Conditions for Discrete Controllable Systems", DANSSSR, 172:1 (1967), pp. 18-21 (in Russian).
[8] V. I. Gurman, I. V. Rasina. "Global control improvement method for non-homogeneous discrete systems", Programmnyye sistemy: teoriya i prilozheniya, 2016, no.1, pp. 171-186 (in Russian), URL: http: //psta.psiras.ru/read/psta2016_1_171-186.pdf
[9] V. I. Gurman. Singular optimal control problem, Nauka, M., 1977 (in Russian).
[10] V. I. Gurman, M. K. Ni. "Degenerate problems of optimal control. I-III", Autom. Remote Control,, 72:3 (2011), pp. 497-511; no.4, pp. 727-739; no.5, pp. 929-943.
[11] I. V. Rasina. Hierarchical control models of systems with nonuniform structure, Fizmatlit, M., 2014 (in Russian).
[12] V. F. Krotov. "Methods of solution of variational problems on the basis of sufficient conditions of absolute minimum. I", Avtomat. i Telemekh., 23:12 (1962), pp. 1571-1583 (in Russian).
[13] V. F. Krotov, V. Z. Bukreyev, V. I. Gurman. New variational methods in flight dynamics, Mashinostroyeniye, M., 1969 (in Russian).
[14] V. F. Krotov, V.I. Gurman. Methods and optimal control, Nauka, M., 1973 (in Russian).
[15] M. D. Intriligator. Mathematical Optimization and Economic Theory, Phi Learning, 2013, 513 p.
[16] S. P. Sethi, G. L. Tomson. Optimal Control Theory: Applications to Management Science, Martinus Nijhoff Publishers, Leiden, 1981.
Sample citation of this publication:
Irina Rasina, Oles Fesko. "Degenerate optimal control problems for nonuniform discrete systems", Program systems: Theory and applications, 2017, 8:2(33), pp. 3-18. (In Russian).
URL: http://psta.psiras.ru/read/psta2017_2_3- 18.pdf