ТЕОРИЯ УПРАВЛЕНИЯ И ОПТИМИЗАЦИИ
С. Р. АЛЕЕВА, Е. О. ЯКУБОВИЧ
РАВНОВЕСНОЕ ПРОГРАММИРОВАНИЕ И ЕГО ПРИМЕНЕНИЕ ДЛЯ НАХОЖДЕНИЯ РАВНОВЕСИЯ ПО НЭШУ
Рассматривается одно из актуальных направлений теории оптимизации и математического моделирования. Приводится связь равновесного программирования с антагонистическими играми и выпуклым программированием, применение равновесного программирования к некооперативным играм, обзор используемых численных методов.
Ключевые слова: равновесное программирование, равновесие по Нэшу, некооперативные игры N лиц.
Введение
Состояние равновесия присуще многим объектам современного мира и является предметом изучения различных наук: в механике рассматривается равновесие материальной точки, в термодинамике равновесие определяется как ситуация максимума энтропии системы, в теории игр — как компромисс интересов участников. Равновесное программирование, как и любое другое направление оптимизации, представляет собой инструментарий для решения задач определенного вида.
Предметом равновесного программирования является нахождение неподвижных точек некоторых экстремальных многозначных отображений. Формулировка задачи представлена, например, в [1, с. 29-30]. Требуется найти неподвижную точку точечно-множественного отображения V ^ Ш(у) либо установить, что её нет:
V € Ш(V)) = А^шт{Ф(г;,т) : т Е П}.
Здесь П — некоторое множество из , функция Ф(у,т) определена на П х П. В случае существования неподвижной точки V она является искомым равновесным положением.
Более сложные формулировки задачи, например, содержащие функциональные ограничения [2; 3], позволяют описывать задачи выпуклого программирования [1, с. 40-44] и многокритериального программирования [4], возникающие в технических задачах вариационные неравенства с наличием и отсутствием связанных ограничений [5], обратные задачи оптимизации [6], различные игровые постановки [1; 2].
1. Связь равновесного программирования с антагонистическими играми и выпуклым программированием
Рассмотрим задачу выпуклого программирования
/о(ж) ^ шт,
/г(х) ^ 0, г = 1, ...,т, (1)
х Е .X,
где /г(х) при г = 0,1, ...,т — непрерывные выпуклые функции, X — выпуклое компактноное множество. Покажем, каким образом свести (1) к задаче равновесного программирования, а также установим связь с играми с нулевой суммой. Функция Лагранжа для задачи выпуклого программирования имеет вид
т
Ь(х, А) = /о(х) + ^ Аг/г(х), А* ^ 0.
г=1
Здесь обозначено А = (А1,..., Ат).
Предположим, что для задачи (1) выполнены следующие условия.
1. Задача удовлетворяет условию Слейтера: существует х0 Е X такое, что
/г(х0) < 0, г =1,..., т.
2. Существует конечная оценка снизу оптимального решения двойственной задачи, обозначим ее 7.
Введем в рассмотрение множество
Аг(-/г(х0)) ^ /о(х0) - 7, Аг ^ 0, г = 1, ...,т| .
Обозначим оптимальное решение прямой задачи (1) через V, а оптимальное решение двойственной задачи через у. Пусть выполняется условие
у = шахшт Ь(х, А) = Ь(х*, А*) = штшах Ь(х, А) = V.
Лейл хеХ хеХ Лейл
Определим ^ = X х 5\, г = (х,А) Е ^ и введем отображения
Фх(А) = А^шт{Ь(х, А) : х Е X},
ФЛ(х) = А^шт{Ь(х, А) : А Е £л}.
Тогда экстремальное отображение Ф(г) = Фх(А) х Фл(х) является замкнутым выпуклозначным полунепрерывным сверху [1, с. 42] и, следовательно, в силу теоремы Какутани [1, с. 35] оно имеет неподвижную точку г* = (х*,А*) Е Ф(г*).
Отсюда получаем х* Е Фх(А*), А* Е Фл(х*), что эквивалентно выполнению неравенства
Ь(х*,А) < Ь(х*,А*) < Ь(х,А*), т. е. г* = (х*, А*) — седловая точка функции Лагранжа.
Пример 1. Рассмотрим задачу выпуклого программирования
/0(х1,х2) = х1 + 4х21пх2 ^ шin,
/1(х) = —х1 — х2 < 0, х Е X = {1 < х1 < 3, 1 < х2 < 3},
(2)
где /г(х) при г = 0,1 — непрерывные выпуклые функции, X — выпуклое компактное множество.
Представим эту задачу как игру двух лиц с нулевой суммой. Будем интерпретировать X = {1 < х1 < 3, 1 < х2 < 3} как множество стратегий первого игрока, а функцию Лагранжа Ь(х1,х2, А) = х1 + 4х21п х2 + А(—х1 — х2) — как функцию проигрыша первого игрока и, соответственно, выигрыша второго игрока.
Множество {А ^ 0} будет множеством стратегией второго игрока. Сузим его так, чтобы не потерять искомое равновесие. Для этого решим двойственную задачу
шт Ь(х1,х2,А)= шт |х? — АхЛ + шin |4х21пх2 — АхЛ.
(хьх2)€Х 1< хх<3 1 1< х2^3
Рассмотрим первое слагаемое шin {х^ — Ах1}: х1 = ±л/А/3 — экстремумы
1<хх<3
х1 = ±л/А; 0 — нули функции, причем 1 < х1 < 3. Тогда
{1 — А, 0 < А < 3 (достигается в х1 = 1);
— 3А\/3, 3 < А < 27 ^достигается в х1 = ;
27 — 3А, А ^ 27 (достигается в х1 = 3).
(3)
Теперь рассмотрим второе слагаемое тт {4х2 1пх2 — Ах2}: х2 = еЛ/4 1 — экс-
1< х2 <3
тремум, а х2 = еЛ/4;0 — нули функции, причем 1 < х2 < 3. Отсюда получаем, что
тт {4х2 1п х2 — Ах2}
1< х2<3
— А, 0 < А < 4 (достигается в х2 = 1);
—4еЛ/4-1, 4 < А < 4(1 + 1п3) (в х2 = еЛ/4-1);
121п3 — 3А, А ^ 4(1 + 1п3) (достигается в х1 = 3).
(4)
Используя (3) и (4), найдем теперь
тт Ь(х1,х2,А)
(хх,х2)еХ
Г 1 — 2А,
— 3 А\/3 — А,
— 3 Ал Я — 4еЛ/4-1,
— I— 3А + 12 1п 3, 4(1 + 1п 3) < А < 27;
27 — 6А + 121п3,
а
Для нахождения максимина max min L(xi, ж2, А) рассмотрим каждое выраже-
А^0 (xi,X2)€X
ние в системе: первое выражение меняет знак на 0 ^ А ^ 3, выражения же со второго по пятое принимают только отрицательные значения при заданных А. Отсюда имеем, что max min L(x1, x2, А) = max (1 — 2А) = 1.
А^0 (xbx2)eX 0<A<3
Построим новое множество стратегий второго игрока.
1. Задача удовлетворяет условию Слейтера: существует ж0 = (2, 2) такое, что
/i(x°) = —2 — 2 < °.
2. Существует оценка снизу оптимального решения двойственной задачи 1 >
0. Это любое отрицательное число, например, 7 = —8(13 — ln2).
Тогда множество
SA = ^ А : Аг( —fi(x0)) ^ f0(x0) — Y ^ = {4А ^ 8 + 8 ln 2 + 104 — 8 ln 2} =
= {0 ^ А ^ 28}
будет новым множеством стратегий второго игрока. Рассмотрим следующие экстремальные отображения:
ФХ(А) = Argmin{L(x1, ж2, А) : (x1, x2) G X} =
= Argmin{x1 — Аж1 : 1 ^ ж1 ^ 3} + Argmin{4x2 ln ж2 — Аж2 : 1 ^ ж2 ^ 3} =
' (1,1), 0 ^ А ^ 3;
^,1), 3 < А < 4;
(\/i,eA/4-1), 4 ^ А ^ 4(1 + ln3); (5)
(^f, 3), 4(1 + ln3) < А < 27;
1(3,3), А ^ 27;
ФА(ж) = Argmax{L(x1, x2, А) : А G SA} =
= Argmax{x1 + 4ж2 ln ж2 + А(—ж1 — ж2) : А G SA} =
{0, —ж1 — ж2 < 0;
[1, 28], —ж1 — ж2 = 0;
28, —ж1 — ж2 > 0.
Поскольку 1 ^ ж1 ^ 3, 1 ^ ж2 ^ 3, получим Фа (ж) = 0 на этом множестве.
По теореме Какутани существует неподвижная точка z* = (ж*, А*) G Ф(г*), где
Ф(г) = ФХ(А) х ФА(ж), причем ж* G ФХ(А*), А* G ФА(ж*). Поскольку ФА(ж) = 0, то
А* = 0 и остается найти ж*:
ж* С Фх(0), 0 С Фа(ж*).
Первое выражение в (5) подходит, т. к. Фх(0) = (1,1) при А = 0. Таким образом, (1,1) € Фх(0) и 0 € ФА(1,1), следовательно, ((1,1), 0) — равновесное положение как решение равновесной задачи и как решение игры с нулевой суммой, а также седловая точка для задачи выпуклого программирования (2).
2. Равновесное программирование и некооперативные игры. Численные методы
2.1. Понятие равновесия некооперативной игры N лиц
Система Г = (Ж, {Хг}, {/г}, г € N), в которой N = {1, 2,..., п} — множество игроков, Хг — множество стратегий игрока с номером г, / — функция проигрыша игрока с номером г, определенная на декартовом произведении множеств
П
стратегий игроков П = П Хг, называется некооперативной игрой N лиц.
г=1
Игра происходит следующим образом: игроки одновременно и независимо друг от друга выбирают свои стратегии хг из множества стратегий Хг, г = 1, 2,..., п. В результате формируется ситуация х = (х^х2,..., хп), хг € Хг. После этого каждый г-й игрок получает проигрыш /г, и игра заканчивается.
Для игровых ситуаций компромисс в интересах участников может быть представлен как равновесие по Нэшу, определяемое системой экстремальных включений Хг € А^шт{/г(хг, Х-г) : хг € Хг}, г = 1, 2, ...,п, где хг — стратегия г-го игрока, а Х— — стратегии остальных игроков. Тип оптимума зависит от типа функций игроков: являются они функциями выигрышей (тогда берётся А^шах) или же функциями проигрышей (данный случай).
Подобная система посредством введения функции [5]
П
^,ад) = ^ /г (Хг, Х—г) , где V = (Х;),ад = (Х—г), (6)
г=1
П = Х1 х Х2 х ... х Хп, г = 1, 2,..., п, может быть сведена к задаче равновесного программирования.
2.2. Задача равновесного программирования с функциональными ограничениями
В дальнейшем рассматривается следующая задача равновесного программирования с функциональными ограничениями [2]:
V € А^шт{^^,ад) : $(ад) ^ 0,ад € П}, (7)
где ^^,ад) определена на х Мга, П С Мга — выпуклое замкнутое множество, ^(V, ад) выпукла по w при каждом V. Векторная функция $(ад) имеет размерность т и каждая ее компонента есть выпуклая функция.
Для решения такой задачи требуется применение специальных численных методов. Рядом авторов были разработаны численные методы решения подобных задач: проксимальные, градиентные методы, методы, использующие модифицированные функции Лагранжа или верхние и нижние опорные функции.
2.3. Экстрапроксимальный метод решения равновесных задач
По аналогии с задачей выпуклого программирования вводится функция Лагранжа [2]
Ь(г;,ад,р) = ^^,ад) + (р,д(ад)), ад € П, р ^ 0.
В случае регулярности функциональных ограничений (например, при выполнении условия Слейтера) эту задачу можно преобразовать в задачу вычисления седловой точки функции Лагранжа Ь^,ад,р):
^(г),г;) + (р,д^)) ^ ^(V,V) + (р5,g(V)) ^ ^^^) + (р,д(и>)), Vw € П, р ^ 0,
где
V € А^шт{^^^) + (р,#(и>)) : ад € П}, р> € А^шах{^(V,V) + (у, д^)) : у ^ 0}.
Рассмотрим их проксимальные аналоги
V р;
Замечание 1. Проксимальные операторы подробно описаны, например, в [7]. Получили процесс вида
v”+1 = а^шт|+1 |ад — V”-!2 + (рга,д(ад))): w € П
рп+1 = а^шах{ —1 |у — р”|2 + а^^”, V”) + (у^^”))) : у ^ 0}.
Однако такой процесс в общем случае не сходится даже для обычной задачи оптимизации. В этом случае вместо ^(v”,w) будет просто ^(w).
Рассмотрим проксимальный прогнозный, или экстрапроксимальный метод [2]. Он имеет следующие отличия от других методов, предложенных автором А. С. Антипиным.
1. Каждая итерация представляет собой задачу оптимизации сильно выпуклой/вогнутой п-мерной функции, в то время как в прочих методах появляется снова задача равновесного программирования, однако более низкой размерности.
2. Метод является явным, в отличие от других алгоритмов.
3. Метод сохраняет блочно-сепарабельную структуру задачи, а методы с модифицированными функциями Лагранжа ее не сохраняют.
4. Из предыдущих трех пунктов следует, что задача п-мерной оптимизации декомпозируется на п независимых задач одномерной оптимизации сильно выпуклых/вогнутых функций. Это не только упрощает вычисления, но и позволяет распараллелить их, что в значительной степени ускоряет расчеты.
а^шт <{ +2^ — V!2 + а(^(V, w) + (р, д^))) : w € П а1^шах<{ — 1 !у — р|2 + а(^+ (у,д(';))) : у ^ 01.
5. Из недостатков следует отметить «немного более жёсткие» условия сходимости, проявляющиеся, например, в необходимости выполнения условия . Липшица.
Замечание 2. По этим причинам метод был выбран для программной реализации.
Рассмотрим итеративные формулы метода. Дополнительно вводятся два управления по невязкам (А1 и А2), и получаются ещё две дополнительные задачи оптимизации.
Прогнозные шаги экстрапроксимального алгоритма:
А1 = а^шах | — 2|у — р”|2 + а^^”^”^ (у, д^”))): у ^ 0^ — р”,
А2 = а^шт|+2 |w — V”!2 + а(^^”^) + (р” + Аьд^))): w € п| — V”.
Реальные шаги экстрапроксимального алгоритма: v”+1 = а^шт| + 2|w — v”|2 + а(^(V” + А2^) + (р” + Аьд^))) : w € П
р”+1 = а^шах| — 2|у — р”|2 + а(^(V” + А,v” + А2) + (y,д(v” + А2))) : у ^ 0|
Замечание 3. Термины «прогнозные» и «реальные» значения обусловлены экономической интерпретацией, предложенной в [3].
Вместо прогнозных значений можно использовать уже полученные на предыдущем шаге реальные значения
р”+1 = а^шах{ —1 |у — р”|2 + а(^(v”+1,v”+1) + (у,д(и”+1))) : у ^ 0}.
Замечание 4. Программно реализовался этот случай.
В случае тождественно равных нулю функциональных ограничений д^) = 0 для w € П первый и четвертый шаг экстрапроксимального алгоритма примут вид
А1 = а^шах | — 2 |у — р”|2 + а(^(у, 0)) : у ^ 0^ — р” =
= а^шах | — 2|у — р”|2 : у ^ ^ — р” = 0,
р”+1 = а^тах | —1 |у — р”|2 + a(F(v”+1, v”+1) + (у, 0)) : у ^ 0^ = р”,
а значит, в них необходимость пропадает. Тогда экстрапроксимальный алгоритм примет вид
А2 = а^тт| + 2|w — v”|2 + а^1 (v”,w): w € п| — V”, (8)
v”+1 = а^тт|+2|w — v”|2 + а^1 (V” + А2^): w € п| . (9)
2.4. Сходимость экстрапроксимального метода
Рассмотрим предварительно важные понятия, используемые при формулировке теоремы сходимости.
Определение 1. [2] Функция ^^^) : К” х К” ^ М. кососимметрична относительно равновесия V € П при выполнении неравенства
^^^) — ^^^) — ^(V,w) + ^(й^) ^ 0 Vw € П.
Для кососимметричной функции всегда выполняется условие
^(w,V) ^ ^^^) Vw € П. (10)
Однако в случае отсутствия кососимметричности относительно равновесия, но при выполнении условия (10), метод все равно может быть использован [2].
Определение 2. [5] Функция ^^^) : К” х К” ^ К удовлетворяет условию Липшица при выполнении неравенства
|[^(V + + к) — ^(V + Л,w)] — (V,w + к) — ^(V,w)]| ^ |^| ■ |Л| ■ |к| (11)
Vw, w + к, V, V + Л € П, где |^| — константа.
Класс функций, удовлетворяющих условию (11), не пуст, причем выполнена
следующая
Лемма 1. [2] Пусть ^^^) — дифференцируемая функция, чей частный градиент по переменной w удовлетворяет следующему условию Липшица:
|^+ к) — ^^^)| ^ |^| ■ |к| (12)
Vw,w + € П, где |^| — константа.
Тогда для ^ выполняется условие Липшица (11).
Замечание 5. Для применимости экстрапроксимального алгоритма дифференцируемость не требуется.
Теорема 1. [2, Теорема о сходимости экстрапроксимального метода] Пусть выполнены следующие условия :
1) множество решений исходной равновесной задачи не пусто, и задача кососимметрична относительно равновесия;
2) целевая функция ^(V, w) непрерывна по V и выпукла по w при каждом V ;
3) векторная функция д^) выпукла по w;
4) F^^) и д^) удовлетворяют условиям Липшица.
Тогда последовательность V”, порожденная экстапроксимальным методом с параметром а, удовлетворяющим условиям
0 < а < (2 ■ (|Р|2 + |д|2))-1/2, где |Р|, |д| — постоянные Липшица, (13)
сходится монотонно по норме к одному из равновесных решений :
liш V” = V.
В следующей части рассматриваются различные некооперативные игры. С помощью формулы перехода (6) формулируется равновесная задача (7) и на ней тестируется программно реализованный экстрапроксимальный метод. Проверяются достаточные условия сходимости метода (теорема 1), либо аналитически находятся все равновесные положения, либо проверяется правильность численных результатов. Делается вывод на основании численных и аналитических результатов о применимости метода к игре.
3. Тестирование метода на примерах некооперативных игр
3.1. Случай выполнения достаточных условий сходимости
3.1.1. Игра без функциональных ограничений Пример 2. Заданы функции игроков
/1 = (Х2 + 5)4 ■ жь /2 = (2x2 — 4)4 ■ ж?
и множества стратегий
—20 ^ ж1 ^ 20, —15 ^ ж2 ^ 25.
Покажем, что данная игра удовлетворяет всем условиям теоремы 1. Составим функцию
”
Р(V,W) = ^ /(Жг,Ж-г) = (ж2 + 5)4 ■ у1 + (2у2 — 4)4 ■ Ж^ V = (Ж1,Ж2), W = (у1,у2).
г=1
Она выпукла по w, проверим выполнение условия (10):
Ж1 = argшin{(Ж2 + 5)4 ■ у1 : —20 ^ у1 ^ +20} = —20,
Ж2 = argшin{(2y2 — 4)4 ■ Ж2 : —15 ^ у2 ^ +25} = 2.
Так как
Р(w,w) = (у2 + 5)4 ■ у1 + (2у2 — 4)4 ■ у2,
Р(w,v) = (у2 + 5)4 ■ Ж1 + (2Ж2 — 4)4 ■ у2,
то получим
(у2 + 5)4 ' Ж1 + (2Ж2 — 4)4 ' у2 = (у2 + 5)4 ' ( —20) + 0,
откуда
(у2 + 5)4 ■ ( —20) + 0 ^ (у2 + 5)4 ■ у1 + (2у2 — 4)4 ■ у2.
В силу дифференцируемости и ограниченности градиента Р(V, w) будет, по лемме
1, выполняться условие Липшица (11).
Метод применялся при начальном положении V0 = (—5, 24). При различных начальных положениях метод сходится к одному и тому же равновесному положению V = (Ж1,Ж2) = (—20, 2). При этом векторы невязки сходятся по норме к нулевому вектору, а итерационные векторы стремятся к равновесному.
3.1.2. Игра с функциональными ограничениями
Функциональные ограничения
д1(Ж1,Ж2) = ж1 — 20 ^ 0, д2(Ж1,Ж2) = Ж4 — 2.4 ^ 0
являются выпуклыми и удовлетворяют условию Липшица, а значит, выполняются достаточные условия сходимости метода. Получены следующие результаты при различных начальных векторах: положение V = (Ж1,Ж2) ~ (—2.1147,1.2448) удовлетворяет функциональнным ограничениям и действительно является равновесным,
Ж1 = а^тт{(Ж2 + 5)4 ■ у1 : —20 ^ у1 ^ +20, д1(у1,Ж2) ^ 0} = —2.1147, Ж2 = argшin{(2y2 — 4)4 ■ Ж^ : —15 ^ у2 ^ +25, д2(Ж1,у2) ^ 0} = 1.2448.
3.2. Случай получения равновесий при нарушении достаточных условий сходимости
Пример 3. Пусть заданы функции игроков
/1 = (Ж1 — 5)5 ■ Ж2,
/2 = — (Ж2 + 15)3 ■ Ж4,
/з = (Жз — 4)2 ■ Жз,
/4 = Ж1 ■ Ж2 ■ Ж3 ■ Ж4
и множества стратегий
— 20 ^ Ж* ^ 20, г = 1, 2, 3, 4.
Это игра без функциональных ограничений. Игра не удовлетворяет условиям теоремы 1, например, отсутствует выпуклость. В случае V0 = (0, 0,0, 0) уже после первой итерации получается равновесный вектор V = (0, 0, —20, 0).
Из вида /1 получено
Ж1 = а^т^^ — 5)5 ■ Ж2 : —20 ^ у1 ^ +20} = = а^т^^ — 5)5 ■ 0 : —20 ^ у1 ^ +20}
при всех yi, -20 ^ y1 ^ 20, а значит, и нулевое значение, как в V. Аналогично из /2 и /4 получим нулевые Х2 и Х4. Для /з имеем
Хз = argmin{(y3 - 4)2 ■ уз : -20 ^ yi ^ +20} = -20.
Однако уже при незначительном изменении начального положения v0 =
(0, 0, 0, 0.0000001) получается иной результат. Отсутствие по крайней мере выпуклости на всем многоугольнике стратегий привело к потере непрерывной зависимости от начального положения около нуля. Причем сам результат зависит от номера текущей итерации: алгоритм циклически перемещается от одного положения (20, 20,-20, 20) к другому (20,-20,-20, 20). Эти положения являются равновесными в силу особенностей функций, определяющих игру.
3.3. Случай появления неравновесных положений при отсутствии выполнения достаточных условий сходимости
Пример 4. При функциях игроков
/1 = COs(xi + Х2),
/2 = -x1 ■ cos Х2
и множествах стратегий
-20 ^ x ^ +20, i = 1, 2,
рассмотрим игру без функциональных ограничений. Функция
F(v, w) = COs(yi + Х2) + (-Х1) ■ cos У2, V = (Х1,Х2), W = (yi,y2),
непрерывна по v при каждом фиксированном w, однако не является выпуклой на всем многоугольнике стратегий. В силу дифференцируемости и ограниченности её градиента существовует константа Липшица (12). Кососимметричность функции наблюдается также не во всех точках прямоугольника. Рассмотрим возможные равновесия:
1) x1 = п + 2п1, x2 = 2пк;
2) x1 = 2nl, x2 = п + 2пк.
При работе алгоритма (с округлением) получено два типа результатов.
I тип:
3п G argmin{cos(X2 + y1) : -20 ^ y1 ^ +20} =
= argmin{cos(2n + y1) : -20 ^ y1 ^ +20} = п + 2nl, l G Z,
4п G argmin{(-;г1) ■ cosy2 : -20 ^ y2 ^ +20} =
= argmin{(-5п) ■ cos y2 : -20 ^ y2 ^ +20} = 2nk, k G Z;
-2п G argmin{cos(X2 + y1) : -20 ^ y1 ^ +20} =
= argmin{cos(5n + y1) : -20 ^ y1 ^ +20} = 2nl, l G Z,
5п G argmin{(-Х1) ■ cos y2 : -20 ^ y2 ^ +20} =
= argmin{(+4n) ■ cosy2 : -20 ^ y2 ^ +20} = п + 2пк, k G Z.
II тип: v = (-7, -15) не является равновесным, поскольку
-7 G argmin{cos(-15 + y1) : -20 ^ y1 ^ +20}, -15 G argmin{7 ■ cos y2 : -20 ^ y2 ^ +20}.
Отсутствие выпуклости и кососимметричности на всем многоугольнике стратегий привело к отсутствию сходимости к равновесному положению из некоторых начальных положений.
4. Модификация экстрапроксимального метода
Пример 5. Пусть функции игроков имеют вид
/i = (xi - Х2)2,
f2 = (x2 - Хз^
/з = (Хз - Х4)2,
/4 = (Х4 - Х1)2,
а множества стратегий —
-20 ^ х* ^ +20, i = 1, 2, 3, 4.
Рассмотрим игру без функциональных ограничений. Равновесными являются стратегии вида
x1 = х2 = хз = Х4.
За 140 итераций метод сошелся к равновесному положению (15.25,15.25,15.25,15.25).
4.1. Функции и расстояния Брегмана
Пусть S — выпуклое открытое множество в Rn, S — его замыкание, h — выпуклая вещественная функция, определенная на S, Dh(x,y) = h(x) - h(y) -(Vh(y),x - y), где Vh(y) — градиент функции h.
Определение 3. [8] Функция h называется функцией Брегмана при выполнении следующих условий :
1) h строго выпукла и непрерывна на S ;
2) h непрерывно дифференцируема на S ;
3) для всех x G S и 8 G R правый частичный уровень множества (x,8) = {y G S : Dh(x,y) ^ 8} ограничен;
4) если последовательность {ук} С S сходится к у, то последовательность {Dh(yk, у)} сходится к нулю.
Если h — функция Брегмана, то Dh — расстояние Брегмана, ассоциируемое с ней. Оно имеет следующие свойства:
1) Dh(x,y) ^ 0;
2) Dh(x,y) = 0 ^ x = у;
3) Dh(x,y) строго выпукла по x при у G S.
Определение 4. Если
Vy G Rn 3x G S : Vh(x) = y, то функция Брегмана называется коэрцитивной на области S.
Примеры функций Брегмана
1. Пусть S = Rn и функция Брегмана h(x) = ||x||2/2, тогда расстояние Брегмана Dh(x, у) = | |x — у||2/2.
П
2. Пусть S = R+ и функция Брегмана h(x) = x* ln x* непрерывно расши-
i=1
рена на границу положительного ортанта R+ посредством соглашения, что
def
0 ln 0 = 0. Расстояние Брегмана тогда принимает следующий вид:
n n
Dh (x, у) = h(x) — h(y) — (Vh(y), x — у) = x* ln x* — у* ln у* —
i=1 i=1
nn
— (In у* + 1)(x* — у*) = J^(x* ln(xi/yi) + у* — x*). (14)
i=1 i=1
Расстояние (14) называется расстоянием Кульбака - Лейблера.
При сепарабельности функции Брегмана сепарабельно и ассоциируемое с ней расстояние Брегмана.
Вопрос: Что будет, если заменить квадратичные члены в (8), (9) расстоянием Брегмана?
4.2. Генерализованный проксимальный метод на положительном ортанте
Рассмотрим так называемый Bregman Distance Interior Proximal (BDIP) Method [8]. Пусть выполняются следующие условия:
1) 0 < вк ^ в , в > 0;
2) Dh(x, у) — расстояние Брегмана, ассоциируемое с функцией Брегмана h с областью S = R+;
3) Н сепарабельна и коэрцитивна на области.
Алгоритм метода имеет следующий вид.
1. Инициация: начальное положение х0 > 0.
2. Основной шаг: имеем хк > 0, при V/(хк) = 0 прекращается, иначе жк+1 € (г € а^шт{/(х) + вк^(х,хк) : х € Ега} : г € Е+}. При Иш вк = 0
последовательность (хк} сходится к оптимуму.
В случае замены проксимальной формы на обобщенную проксимальную (БВ1Р) итеративные формулы экстрапроксимального метода (8), (9) могут принять следующий вид:
А = а^шт{вга^(ад, V”-) + Р(^ад) : ад € П} — V”-, (15)
^”'+1 = а^тт{вп^(ад, Vй) + Р(^га + А, ад) : ад € П}. (16)
Определение 5. Метод (15), (16) назовем модифицированным экстрапрокси-мальным методом.
Для тестирования в качестве сепарабельного расстояния Брегмана выбра-
П
но расстояние Кульбака - Лейблера Д^(х,у) = ^^(х» 1п(х»/у) + у — х»). Тогда
»=1
алгоритм (15), (16) принимает вид
(ад» 1п(адг/^™) + V™ — ад»)) + Р(^га,ад) : € П | — Vй, (17)
(ад» 1п(ад»/^П) + V™ — ад»)) + Р(^га + А, ад) : ад € П| . (18)
Алгорим (17), (18) применялся к игре из примера 5, получено равновесное положение (12.7335,12.7335,12.7335,12.7335), причем векторы невязок стремятся по норме к нулевому вектору, а итерационные векторы сходятся к равновесному.
Таким образом, можно пробовать заменять различными расстояниями Брегмана квадратичные члены в (8), (9), чтобы пытаться получить, например, более высокую скорость сходимости.
Список литературы
1. Зоркальцев, В. И. Равновесные модели в экономике и энергетике / В. И. Зор-кальцев, О. В. Хамисов. — Новосибирск : Наука, 2006. — 221 с.
2. Антипин, А. С. Равновесное многокритериальное программирование: проксимальные методы / А. С. Антипин // Журн. вычисл. математики и мат. физики. — 1997. — Т. 37, № 11. — С. 1327-1339.
3. Антипин, А. С. Равновесное программирование: методы градиентного типа / А. С. Антипин // Журн. автоматики и телемеханики. — 1997. — № 8. — С. 125137.
А = а^шт < вп(У^
I »=1
( П
■■ а^шт < вп(У^
»=1
4. Антипин, А. С. Равновесное многокритериальное программирование: экстра-проксимальные методы / А. С. Антипин // Журн. вычисл. математики и мат. физики. - 2007. - Т. 47, № 12. - С. 1998-2012.
5. Антипин, А. С. Методы решения вариационных неравенств со связанными ограничениями / А. С. Антипин // Журн. вычисл. математики и мат. физики. — 2000. — Т. 40, № 9. — С. 1231-1307.
6. Антипин, А. С. Обратная задача оптимизации: постановка задачи и подход к ее решению / А. С. Антипин // Обратные задачи мат. программирования. — М. : ВЦ РАН, 1992. - С. 3-33.
7. Васильев, Ф. П. Методы отпимизации / Ф. П. Васильев. — М. : Факториал Пресс, 2002. — 824 с.
8. Suzoa, Sissy da S. A proximal method with separable Bregman distances for quasiconvex minimization over the nonnegative orthant / Sissy da S. Suzoa, P. R. Oliveira, J. X. da Cruz Neto et al. // European Journal of Operational Research
— 2010. — Vol. 201, № 2. — P. 365-376.