УДК 519.65
Е. А. Умное, А. Е. Умное
Московский физико-технический институт (государственный университет)
Об одном методе исследования зависимости решения задачи линейного программирования от параметров
Рассматривается схема использования метода гладких штрафных функций для исследования зависимости решений задач линейного программирования от параметров. Приводится сравнительный анализ различных типов штрафных функций и оценка практической эффективности методов решения различных классов оптимизационных задач.
Ключевые слова: задача параметрического программирования, метод гладких штрафных функций, двойственная пара задач линейного программирования, зависимость оптимального решения от параметров.
1. Введение
В практике математического моделирования достаточно часто возникает необходимость исследования зависимости решения задачи линейного программирования от значений ее параметров. При этом сложность такого исследования обусловливается не только тем фактом, что построение явного вида изучаемых зависимостей практически невозможно, но и их «врожденными» специфическими свойствами: определенностью не на всем множестве допустимых значений параметров, а также возможным отсутствием функциональности и гладкости на этом множестве.
В статье [1] предложен и теоретически обоснован метод анализа зависимости решения задач линейного программирования от параметров, основанный на построении ее функциональной (однозначной), сглаженной аппроксимации, близкой по своим значениям к исследуемой зависимости при тех параметрах, для которых последняя существует. В настоящей статье рассматриваются различные вычислительные аспекты этого подхода, в частности, его практическая эффективность.
2. Описание подхода
Основная идея предложенного в [1] метода, альтернативного описанным, например, в [2] - [3], заключается в применении метода гладких штрафных функций одновременно к паре взаимодвойственных задач линейного программирования, записанных в симметричной форме.
Пусть х € Еп, Л £ Ет, и € Ек, а их координатные представления соответственно ||ж|| = ИС1С2 ... <Ы|Т, ||Л|| = ЦА1А2 ... Ат||т, ||«|| = ... ^к||Т) причем и € О Ц Ек. Тогда прямая задача линейного программирования будет иметь вид:
максимизировать по {£1, £2,..., ^(%, и) = £^/=1 аз(и,
при условиях ^ ^ 0 V? = [1, п] И ¡г(х, и) = -/Зг(и) + аг] (и)£э ^ 0 VI = [1, тЬ Эту задачу для краткости будем именовать «Р-задачей» и обозначать как Р, а ее решение при фиксированном и € О обозначать х*(и).
«Б-задача», двойственная к Р, будет соответственно иметь вид: минимизировать по {А^ Х2,..., \т} С (Л, и) = ^ г[= 1 ^(и)^,
при условиях \г ^ 0 VI = [1,т] И д^ (Л, и) = —0^j (и) + ^ Г[=1 (Х^ (u)Xi ^ 0 V? = [1,п]. Ее решение при фиксированном и € О будем обозначать Л*(и). Все функции (и),^г(и) и а^(и) в условиях задач Р и Б предполагаются известными.
Определим функцию Р(т, в) так, чтобы она существовала и была непрерывна вместе со своими производными до второго порядка включительно для всех и любых т > 0, а также
, f 0 при s > 0, ^ п/ \
удовлетворяла условию iimrР(т, s) = < + ^ < о Функция Р(т, s), как пока-
зано, например, в [4], может использоваться в качестве «штрафа» за нарушение связи вида s ^ 0 в экстремальных задачах с ограничениями-неравенствами, при этом предполагается, что она удовлетворяет условиям
дР д2Р
0 w >0 (1)
д Р
Мы будем также предполагать, что дрр является функцией только одного аргумента то есть ддр = Ф (j).
Как известно [3], стандартный метод гладких штрафных функций позволяет (в силу (1)) в случае однозначной разрешимости задачи Р находить ее решение в виде х*(и) = lim х(т,и), где х(т,и) = argmax Ар(т,х,и) и
т х
Ар(т, х, и) = F(х, и) - YZ1 Р(г, (-Л(х, и)).
Аналогично, решение задачи D может быть представлено в виде А* (и) = lim Л(т,и),
т
где Л(т, и) = argmin А^(т, Л, и) и А^(т, Л, и) = С(Л, и) + 1 Р(т, (dj(Л, и)). л j
При этом, как показано в [5], в большом числе случаев функции х(т, и) и Л(т,и) можно использовать в качестве «сглаженных» аппроксимаций зависимостей х*(и) и Л*(и), поскольку они удовлетворяют условиям стационарности
grad Ар(т, х(т, и),и) = о и grad А^(т, Л(т, и), и) = о,
х Л
к которым применима теорема о неявных функциях [6].
Кроме того, опять-таки в случае однозначной разрешимости задач PhD оказываются справедливыми равенства
А*(и) = - im ^ (г,-Д(х(т, и))) Vi = [1,m], (2)
дJi
е*(и) = - _im—(T, 9j (Л(т,и))) vj = [i,n], (3)
дР ^ г^+о dgj
которые могут рассматриваться как условия, связывающие решения задач PhD.
Более того, вид соотношений (2) - (3) приводит к заключению, что в качестве сглаженных аппроксимаций зависимостей х*(и) и Л* (и) можно использовать не х(т,и) и Л(т,и), а функции х(т,и) и Л(т,и), определяемые системой условий
Ми) = -Щ:(г, -Ш(т,и))) Vi = [1,m],
_ i _ (4)
^(и) = - ддР (г, 9j (Л( Г, и))) Vj = [1,n] и для которых (как показано в [1]) также оказываются справедливыми равенства х*(и) = lim х(т, и) и Л* (и) = lim Л(т,и) .
Наконец, заметим, что систему (4) можно записать в более удобном (для совместного реше-
О р
ния задач Р и D) виде, если учесть, что функция д^ (в силу условий (1)) имеет обратную Q(т, s) = Ф-1 (f- ): S
f п _ _
РЛи) - Е = Q(t,\i) Vi = [1,m],
3 m _ _ (5)
-(7j (и) + ^ач(и)К = Q( T^i) vj = [1,n\. 1
Поскольку основная цель настоящей статьи заключается в исследовании вычислительных аспектов решения системы уравнений (5) и возможности использования функций х(т, и) и Л(т, и) для решения параметрических задач различных классов, мы здесь ограничимся лишь констатацией базовых свойств решений этой системы, обоснование которых приведено в [1]:
{х(т, и); Л(т, и)} есть седловая точка в Еп ® Ет для функции
n т n т
и(т,х, Л, и) = ^ (u)Cj + R(t, }) + ^ [рг(и)\г — R(t, \г}) - ^^ аг,(и)&\г, (6)
3=1 г=1 j=l г=1
где R'(t,s) = Q(t, s), причем Vs > 0 lim R(t,s) = 0, и lim U (т,х, Л,и) = L(x, Л,и), а
L(x, Л, и) - функция Лагранжа пары задач Р и D.
Следует заметить, что функция (6) может быть существенно обобщена за счет использования как различных видов функций R(t, s), так и различных значений параметра т для разных j и г. Однако основные свойства функции U(т, х, Л, и) при этом останутся теми же, что и у рассматриваемой.
3. Свойства сглаженных аппроксимаций
Рассмотрим теперь конкретные функции Q(t, s), задающие правые части уравнений системы (5). В табл. 1 приведены некоторые их виды, представляющие интерес с точки зрения вычислительной практики.
О р
Тот факт, что — (в силу (1)) зависит только от одного аргумента определяет специальный вид структуры функции Q(t, s), а именно Q(t,s) = тФ(в). Действительно,
функция Q(t, s) как обратная к — определяется соотношением — $-1(s) = ^^ S) , где функции Ф и Ф взаимно обратные. Поэтому Q(t,s) = тФ(в).
Таблица 1
Примеры используемых штрафных функций
Р (т, s) дР ds Q(T,S) R(t, s)
S те т s е~т —t ln s — TS ln |
— ^ (Vs2 + г2 — s) — — ^ l^ Vs2 + т2 + s) Vs2 + г2 — s) = = у/( f )2+1 — # —2 (• — l) — 2 (— ln s)
Через элементарные функции не выражается ln (l + —r ln (es — l) Через элементарные функции не выражается
Отметим, что в практических расчетах важен вид лишь функций Q(т,s), входящих в условие системы (5). Степень сложности остальных функций, приведенных в табл. 1, особой роли не играет.
Соотношения (2) - (3) гарантируют близость значений функций х(т, и) и Л(т, и) к значениям зависимостей х*(и) и Л* (и) там, где последние существуют и однозначны. Кроме того, функции х(т,и) и Л(т,и) определены и имеют положительные (в силу условий (1) и
(4)) значения для любых параметров и (включая значения, при которых задачи Р или Б несовместны), а также однозначны в точках переопределенности задач Р или Б.
Функции х(т, и) и Л(т, и) допускают аппроксимацию по формуле Тейлора, поскольку к соотношениям (5) применима классическая теорема о неявных функциях [6] при условии, что Q(т, в) достаточно гладкая. Отметим, что для штрафных функций, приведенных в табл. 1, порядок тейлоровской аппроксимации для х(т,и) и Л(т,и) может быть любым.
Проиллюстрируем отмеченные свойства аппроксимаций х(т, и) и Л(т, и) на примере следующей задачи линейного параметрического программирования. Пример 1.
и
максимизировать в Е2 функцию Р = 1 + 3 а при условиях £1 ^ 0 , £2 ^ 0 и
6 < 3 ,
а + 2 < и,
2 а+а < 6,
двойственная задача, Б: минимизировать в Е2 функцию С = ЗА1 + и\2 + 6А3 при условиях А1 ^ 0 , А2 ^ 0 , А3 ^ 0 и
А2 + 2АЗ ^ 2 , А1 + 2А2 + Аз ^ 3 .
В табл. 2 приведены зависимости х*(и) и Л* (и) - решения задач Р и Б из примера 1. Иными словами, при и < 0 задача Р несовместна, а задача Б совместна, но имеет в допустимой области неограниченную целевую функцию. При и ^ 0 обе задачи совместны,
15
причем в точках, где и равно 0, 3 и ли ^г, задача Р переопределена, а задача Б имеет не единственное решение.
Рассмотрим теперь решение пары задач Р-Б по предлагаемой схеме. Система уравнений (5) с Q(т, в) = — 2 (— ^ для примера 1 будет иметь вид
3 — & + ф —
2 — А2 — 2 Аз — 2
3 — А1 — 2А2 — Аз — 2 ( а — ^ ) = 0 .
(* — =0 (* — £)
0
(А2 — )
и — а — 2е2 + 2 (А2 —1
6 — ^ — & + 2(А3 — А3)
Для решения этой системы использовался стандартный вариант метода сопряженных направлений. При этом для того чтобы ослабить зависимость процесса решения от начальных приближений и значений допусков погрешностей, система (5) была модифицирована к следующему виду:
Рг(и) — Е агз(и) = Q(T, |А*|) Ш = [1,т],
3=1
т ___
— (и) + Т, ^(и) 1 Аг1 = ^Т, |а|) = [1,П].
1
0
0
Таблица2
Решение задачи примера 1
и 0 3 15 2
(¡(и) не сущ. не сущ. 0 и 3 - 3 и + 4 3 2 3 2 3 2
ш не сущ. не сущ. 0 0 0 3и - 2 3 3 3
Х1(и) 0 0 0 0 0 0 г, г € [0, 2] 2 2
Х*2(и) не огр. не огр. [2, +то) 2 2 - 2£, и[°, 3 ] 4 3 4 - 2г 3 0 0
Х*3(и) 0 0 0 0 £ 1 3 1 + г 3 1 1
^ ¡(и) не сущ. не сущ. 0 2и 6 3 и + 2 12 12 12
а* (и) не огр. не огр. 0 2и 6 3 и + 2 12 12 12
Такая модификация делает все уравнения системы (5) четными по каждой из неизвестных и позволяет не контролировать в явном виде выполнение условий положительности решений. Полученное при этом решение системы (7) не обязательно оказывается в первом квадранте пространства Еп ® Ет. Искомыми же решениями системы (5) будут являться абсолютные величины решений системы (7), поскольку они положительны и, очевидно, удовлетворяют всем уравнениям системы (5).
Результаты расчетов для коэффициентов штрафа т = 0.01 приведены в табл. 3, каждая строка которых содержит значения неизвестных систем (5) при фиксированном параметре и € [-0.005,11]. Данные, относящиеся к значениям параметра и, при которых происходит смена оптимального базиса задачи 1, в этой таблице окаймлены пустыми строками. Графическое представление найденных решений для коэффициентов штрафа т = 0.1 и т = 0.01 показаны на рис. 1 и рис. 2 соответственно.
Кроме того, на рис. 3 показаны графики зависимости от и разности значений функции и и функции Лагранжа для коэффициентов штрафа т = 0.1 и т = 0.01. По этим графикам можно оценить величину суммарного (по всем ограничениям) «сглаживания» зависимостей х*(и) и Л* (и) для различпых и. Результаты численных расчетов для т = 0.1 в примере 1 можно найти в [7].
ТаблицаЗ
Решения системы (5) в примере 1 для различных значений и (т = 0.01)
и 6 6 Ах А2 Аз и-ь
-0.0050 0.00499594 0.00166625 0.00166759 2.99911870 0.00083496 0.02593610
-0.0025 0.00606528 0.00188833 0.00166771 2.82266360 0.00083528 0.02526410
-0.0010 0.00679480 0.00202362 0.00166779 2.73415220 0.00083551 0.02510610
-0.0001 0.00726337 0.00210449 0.00166783 2.68667800 0.00083565 0.02507860
0.0000 0.00731683 0.00211344 0.00166784 2.68164790 0.00083567 0.02507830
0.0001 0.00737057 0.00212238 0.00166784 2.67666540 0.00083568 0.02507840
0.0010 0.00786648 0.00220234 0.00166789 2.63389760 0.00083583 0.02510060
0.0100 0.01386250 0.00290630 0.00166828 2.35894050 0.00083761 0.02642730
0.0250 0.02639440 0.00362906 0.00166868 2.18761970 0.00084124 0.02916320
0.0500 0.04977350 0.00416820 0.00166898 2.09851020 0.00084799 0.03223520
0.1000 0.09870570 0.00454781 0.00166919 2.04843740 0.00086236 0.03559310
0.2500 0.24796180 0.00482246 0.00166935 2.01710620 0.00090921 0.03985620
1.0000 0.99746440 0.00501004 0.00166945 1.99752540 0.00124998 0.04293350
2.0000 1.99720980 0.00510604 0.00166950 1.98751870 0.00249939 0.03547580
2.5000 2.49701700 0.00517737 0.00166954 1.97952540 0.00499594 0.02752420
2.9000 2.89602430 0.00554245 0.00166975 1.93787160 0.02468740 0.01493730
2.9500 2.94479850 0.00600751 0.00167001 1.89140310 0.04778540 0.01108920
2.9900 2.97779540 0.00891675 0.00167163 1.71042080 0.13818460 0.00623193
3.0000 2.98103000 0.01197440 0.00167334 1.61495900 0.18590660 0.00570703
3.0100 2.98112600 0.01665200 0.00167596 1.53674580 0.22501290 0.00606394
3.0500 2.97138360 0.04108860 0.00168981 1.41758670 0.28461950 0.00908834
3.1000 2.95556920 0.07385930 0.00170873 1.38144090 0.30273650 0.01175730
3.5000 2.82303100 0.33998770 0.00187968 1.34486590 0.32139510 0.01993920
4.0000 2.65651150 0.67322240 0.00214888 1.33840810 0.32509580 0.02374830
5.0000 2.32332880 1.33979070 0.00301164 1.33250240 0.32901650 0.02555420
6.0000 1.99012860 2.00637090 0.00503193 1.32743160 0.33256510 0.02218720
7.0000 1.65702550 2.67288240 0.01528150 1.31723910 0.33874660 0.01228150
7.4000 1.52451940 2.93895440 0.08136380 1.27187610 0.36189050 0.00090650
7.4500 1.50881950 2.97155830 0.17067700 1.21217530 0.39179720 -0.00357177
7.4900 1.49925040 2.99493640 0.61453470 0.91616050 0.53983910 -0.01080830
7.5000 1.49811760 2.99919850 0.92305730 0.71046030 0.64269330 -0.01184150
7.5100 1.49740700 3.00234780 1.26197480 0.48450190 0.75567510 -0.01076870
7.5500 1.49654080 3.00627470 1.80803190 0.12044720 0.93770560 -0.00232395
7.6000 1.49639700 3.00690310 1.90543410 0.05550970 0.97017480 0.00213951
8.0000 1.49629740 3.00733310 1.97336120 0.01022310 0.99281850 0.01106560
9.0000 1.49628240 3.00739770 1.98365830 0.00335810 0.99625110 0.01670660
10.0000 1.49627940 3.00741040 1.98568200 0.00200891 0.99692570 0.01929030
11.0000 1.49627820 3.00741580 1.98654570 0.00143312 0.99721360 0.02098530
Значения переменных при Таи=0.1
и
Рис. 1. Зависимость решений системы (5) в примере 1 от значения параметра и для т = 0.1
Значения переменныхпри Таи=0.01
и
Рпс. 2. Зависимость решений системы (5) в примере 1 от значения параметра и для т = 0.01
Значение 114.
----
00 0. Ю 2. 10 4 Ю 6. Ю \ 8 ю ю 00 12
Рис. 3. Графики зависимости и - Ь от и для т = 0.1 и т = 0.01
4. Использование сглаженных аппроксимаций
К задачам, в процессе решения которых возникает необходимость исследования зависимости решения задачи линейного программирования от параметров, можно отнести задачи нелинейного программирования, различные двух- и многоуровневые схемы оптимизации, многокритериальные алгоритмы, проблемы декомпозиции или интеграции комплексов математических моделей. При этом решение задачи линейного параметрического программирования обычно не является самоцелью исследования, а входит (быть может, в неявной форме) в условия других, упомянутых выше, более сложных задач.
Другой специфической особенностью в рассматриваемом подходе является то обстоятельство, что задачи, в постановку которых входят зависимости х*(и) и А*(и), как правило, решаются при помощи методов, основанных на использовании ограниченного набора локальных числовых характеристик, таких как значения функций, их производных или обобщенных градиентов и т.п. Поэтому в первую очередь следует исследовать способы вычисления соответствующих характеристик для функций х(т,и) и Л(т,и), аппроксимирующих зависимости х*(и) и Л*(и).
Рассмотрим задачу нахождения частных производных по компонентам вектора пара-и
и(т, и) = и(т, х(т, и), Л(т, и), и). Согласно правилу дифференцирования сложной функции имеем
ди = ди А гиГ^ + А гиГк
Гщ = дуг + ^ д6- дщ + Ц ЗХг дщ У = ^
]=1 г=1
где частные производные в правых частях вычисляются в точке (х(г,и);Л(т,и)}. Тогда в силу (5) и (6) получаем
ди = а.(и) - £ аг](и)\г + Я(т,1г) = 0 V? = [1, п], =1
ди = ш - ЕтЛиЯз - Ж(т,\г) = 0 V = [1,т].
£ = % V -М,. (8)
Отметим, что для нахождения первых частных производных вспомогательной функции и(т, и) необходимы лишь значения х(т,и) и Л(т,и).
Вторые частные производные находятся аналогичным методом. Учитывая соотношения (8), получаем
д2и д2и ^ д2и дЬ ^ д2и д\г и, , г . .
= 7^^ + Е ТГ^ТГ- + Е ТТ^ТТТ^ =[1,к]. (9)
дщдин дщдин ^ дт/ф^ дин ^ ГщГХг д =1 =1
Из соотношений (9) следует, что помимо значений х(т, и) и Л(т, и) необходимо найти
д\'
также значения производных Ги^ V] = [1,П УИ = [1,к] и г^^ Уг = [1,т] УИ = [1,к] . Значения этих производных согласно теореме о неявных функциях находятся из следующей системы линейных уравнений:
^ Г2и + г Г2и дХг = _ Г2и у, = И п] = [1 к] ■=1 Г&Г&- дин + г=1 Г^ГХг дин = Г^Гин У = ^^ = [1, к]
^ д2и Щ + ^ д2и дХг = _ г2и Уг = [1 т] = [1 к]
=1ГХгГ^Гин + =1дХгдХгдин = дХгдин Уг = [1,т], = [1, к].
И окончательно
Таким образом, решив систему уравнений (5) и подсчитав значения первых и вторых производных но формулам (8) (9), можно либо построить локальную тейлоровскую аппроксимацию второго порядка для вспомогательной функции U (т, и), либо непосредственно использовать эти численные характеристики для решения какой-либо задачи в пространстве параметров.
В качестве иллюстративного примера рассмотрим процедуру решения следующей задачи нелинейного программирования.
Пример 2. Максимизировать в Е4 функцию F = 2£i + 3^2
i 6 1 6
при условиях ^ 0 , £2 ^ 0 и— 22 ^ £з ^ 5 , — ^ ^ £4 ^ ^ ,
6 + (26 + 6 — 1)26 < 6 ,
(10)
(6 — 2^4 + 1)26 + 6 < 6 ,
1 3
решение которой имеет вид: =6 , = 6 , = — = 3 , Р* = 30.
Для решения этой задачи воспользуемся методом параметрической линеаризации [8], суть которого заключается в том, что если переменные £3 и £4 принять за параметры, то
задача (10) становится линейной (по переменным £1 и £2). Пусть £3 = р и £4 = д, где
16 16
— 2 ^ Р ^ 6 и — 2 ^ У ^ фиксированные параметры.
Рассмотрим задачу линейного программирования:
максимизировать в Е2 функцию Р = 2^ + 3^2 при условиях ^ ^ 0 , £2 ^ 0 и
6 + (2р + д — 1)26 < 6 ,
(11)
(р — 2д + 1)26 + 6 < 6 .
Если ^*(р,д) и ^**(р,д) - решения задачи (11), то графическое представление (как изометрическая проекция и как система изолиний) зависимости Р*(р, д) = 2£*(р, д) + 3£*(р, д) будет иметь вид, показанный на рис. 4.
Рис. 4. Зависимость целевой функции задачи из примера 2 от параметров р и д
Решение задачи (10) будем искать методом «наискорейшего подъема» в пространстве параметров Е2, элементы которого имеют координатные представления вида ||и|| = Цр д||т.
Система уравнений (5) с Ж(т, в) = - 2 ^в - ^ для задачи (11) будет иметь вид 6 - 6 - (2р + д - 1)26 + 2 (Л1 - Х^)=0 , 6 - (р - 2д + 1)26 - 6 + 2 (Х2 - Х^)=0 ,
2 -Х1 - (р - 2д + 1)2Х2 - 2
3 - (2р + д - 1)2Х1 - Х2 - 5 6 - =И=0
(* - =0 (* - Ь)
(12)
решив которую, можно находить значения вспомогательной функции и(т, р, д) и ее частных производных первого порядка.
В рассматриваемом примере в силу (6)
и (т ,р, д) = и(т, 6 (р, д),6(р, д),Х1(р, д),\2(р, д),р,д) =
= 26 + К(т, 6)) + 36 + Я(т, 6) + + 6 Х1 - Я(т, Х1) + 6Х2 - К(т, Х2) -
- 6Х1 - (р - 2д + 1)2^\2 -
- (2р + д - 1)26Х1 - 61Х2.
Тогда, использовав (8), получим, что
(13)
ги
Тр = -2(р - 2д + 1)6Х2 - 4(2р + д - 1)6X1 ГГи = 4(р - 2д + 1)6X2 - 2(2р + д - 1)^X1
(14)
Метод «наискорейшего подъема» был реализован в виде стандартной итерационной процедуры ит +1 = ит + атыт, к = 0,1, 2, 3, ..., где ит - вектор параметров на Т-й итерации, ыт _ нормированная улучшающая вариация, а ат - оптимальная величина шага по улучшающему направлению. В рассматриваемом примере
т
ыТ =
1
ги
р \&аЛи\ гР
\grad и \
1
ги
т
И) = ----
Шд \graadU \Гд
и==МШ
р0 = 0.5 д0 = 0.5
На каждой итерации решалась система уравнений (12) и находились компоненты gгadU
= 0.01
Воспользуемся теперь для решения задачи (11) методом второго порядка - методом Ньютона. Применим ту же итерационную схему, что и в методе «наискорейшего подъема». Вектор улучшающего направления будем находить из системы линейных уравнений \\Hess и\ \ \\эд\\ = —gгadU, координатный вид которой
' г2ииР + Г2и ^ =
д 2 г 2и
Ыъ +
ГрГд Шд
г 2и
{ ГрГд Гд
Ыд = ~
ги
Гр
ги
2
Таблица!
Поиск решения задачи в примере 2 методом первого порядка
т Т р± Т Г е7 е! \Т Л2 и ^гаё и | Т Иг шр Т щ
0 0.50000 0.50000 4.79992 4.81137 1.31498 2.64823 23.91610 31.74962 -0.79891 0.60145
1 0.26033 0.68044 5.76609 5.95449 1.94282 2.89242 29.21261 12.82739 -0.46448 -0.88558
2 0.19071 0.54760 5.97713 5.95859 1.94394 2.96125 29.63970 8.40637 -0.01098 0.99994
3 0.19013 0 .60010 6.00500 6.01256 1.97051 2.97001 29.85448 1.31453 0.98130 -0.19247
4 0.20092 0.59798 6.00732 6.01316 1.97079 2.97077 29.86083 0.09268 -0.40583 0.91395
5 0.20000 0.59998 6.00732 6.01317 1.97080 2.97077 29.86086 0.00333 -0.14259 0.98987
В рассматриваемом случае правые части системы линейных уравнений (15) находятся по формулам (14), а элементы матрицы Гессе для функции и(т,р,д) согласно соотношениям (9) имеют вид
Щ; = -2^1*2 - 86А1 + (-2(р - 2д + 1)^) Щ + (-4(2р + д - 1)Ах) Щ +
+ (-4(2р + д - 1)6) ^ + (-2(р - 2д + 1)6) ^ ,
^ = 46А2 - 46А1 + (-2(р - 2д + 1)А2) Ц + (-4(2^ + д - ^ Ц +
+ (-4(2р + д - 1)6) ^ + (-2(р - 2д + 1)6) ^ , = -86А2 - 26А1 + (4(р - 2д + 1)^) + (-2(2р + д - 1)^) || + + (-2(2р + д - 1)6) ^ + (4(р - 2<? + 1)6) ^ .
При этом, как было показано выше, вычисление значений производных
<96 <96 д\1 д\2 96 96 9А1 <9А2
др' ф ' ф ' ' ЗД1 ' ЗД1 '
сводится к решению систем линейных уравнений (10), расширенные матрицы которых в рассматриваемом случае имеют вид:
для производных по р
_ т 2 2 £2
2 £2
-1
-2 - -(2р + д - 1)2
1
-(2р + д - 1)2
-(р - 2д + 1)2
1
т т
- 2 - 2Ш
2 £2
1
2С 2
-(2'р + д - 1)2
-(р - 2д + 1)2
1
2 + 2 Л2
1
-2 - тк -(2р + д - 1)2
2+2 Л2
-(р - 2д + 1)2 -1 0
т + _Л_
2 + 2 Л2
-(р - 2д + 1)2 -1 0
1. + Л_
2 +2 Л2
-2 Л2 (р - 2д + 1)
-4Л\(2р + д - 1)
-4&(2р + д - 1)
-2^(р - 2д + 1)
4Л2(р - 2д + 1)
-2Хг(2р + д - 1)
-2&(2р + д - 1)
4^(р - 2д + 1)
(16)
(17)
Вычисления (15) - (17) выполнялись для каждого шага итерационного процесса
и
1+1 _ ит
и1 + о1 из1 , к _ 0,1, 2, 3, ..., причем величина шага по улучшающему направлению определялась нормой вектора ит. Результаты расчетов приведены в табл. 5.
Таблицаб
Поиск решения задачи в примере 2 методом второго порядка
0
0
0
0
0
0
т т р1 т д1 Я Я Л1 Л1 и ^гаё и 1 1 и1 шр 1 и1
0 0.50000 0.50000 4.79992 4.81137 1.31498 2.64823 23.91610 31.74962 -0.98698 0.16083
1 0.24338 0.54181 6.00205 5.85998 1.89502 2.97001 29.39627 12.81467 -0.61555 0.78810
2 0.19840 0.59940 6.00723 6.01317 1.97080 2.97074 29.86068 0.20332 0.93689 0.34963
3 0.20000 0.60000 6.00732 6.01317 1.97080 2.97077 29.86086 0.00000 0.00000 0.00000
Литература
1. Умное Е.А., Ум,нов А.Е. Метод параметрической линеаризации, использующий штрафные функции со всюду обратимой производной для решения пар двойственных задач // Труды МФТИ. - 2011. - Т. 3, № 1. - С. 146-152.
2. Евтушенко Ю.Г. Методы решения экстремальных задач и их применение в системах оптимизации. - М. : Наука, 1982.
3. Fiacco А. V., McCormick G.P. Nonlinear Programming: Sequential Unconstrained Minimization Techniques. — N.Y.: John Wiley and Sons, 1968.
4. Карманов В.Г. Математическое программирование. — М. : Наука, 1975.
5. Ум,нов А.Е. Метод штрафных функций в задачах большой размерности // ЖВМ и МФ. - 1975. - Т. 15, № 6. - С. 1399-1411.
6. Кудрявцев Л.Д. Курс математического анализа. Т.1. - М. : Высшая школа, 1981.
7. Ум,нов Е.А., Ум,нов А.Е. Исследование зависимости решения задачи математического программирования от параметров : препринт МФТИ. — \!.. 2013. — Л*8 1.
8. Ум,нов Е.А. Метод параметрической линеаризации в задачах дискретного оптимального управления // Труды ИСА РАН. Динамика нелинейных систем. — 2005. — Т. 17(1). - С. 56-66.
Поступила в редакцию 17.09.2013.