Научная статья на тему 'Равновесное программирование и его применение для нахождения равновесия по Нэшу'

Равновесное программирование и его применение для нахождения равновесия по Нэшу Текст научной статьи по специальности «Математика»

CC BY
399
73
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
РАВНОВЕСНОЕ ПРОГРАММИРОВАНИЕ / РАВНОВЕСИЕ ПО НЭШУ / НЕКООПЕРАТИВНЫЕ ИГРЫ N ЛИЦ / EQUILIBRIUM PROGRAMMING / NASH EQUILIBRIUM / NON-COOPERATIVE GAME OF N INDIVIDUALS

Аннотация научной статьи по математике, автор научной работы — Алеева Сюзанна Рифхатовна, Якубович Евгений Олегович

Рассматривается одно из актуальных направлений теории оптимизации и математического моделирования. Приводится связь равновесного программирования с антагонистическими играми и выпуклым программированием, применение равновесного программирования к некооперативным играм, обзор используемых численных методов.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

EQUILIBRIUM PROGRAMMING AND ITS APPLICATION FOR A SEARCH OF NASH EQUILIBRIUM

One of the important directions of the optimization theory and mathematical modeling is considered. Communication of the equilibrium programming with zerosum games and the convex programming is provided. The equilibrium programming is applied for non-cooperative games, a survey of numerical methods is given.

Текст научной работы на тему «Равновесное программирование и его применение для нахождения равновесия по Нэшу»

ТЕОРИЯ УПРАВЛЕНИЯ И ОПТИМИЗАЦИИ

С. Р. АЛЕЕВА, Е. О. ЯКУБОВИЧ

РАВНОВЕСНОЕ ПРОГРАММИРОВАНИЕ И ЕГО ПРИМЕНЕНИЕ ДЛЯ НАХОЖДЕНИЯ РАВНОВЕСИЯ ПО НЭШУ

Рассматривается одно из актуальных направлений теории оптимизации и математического моделирования. Приводится связь равновесного программирования с антагонистическими играми и выпуклым программированием, применение равновесного программирования к некооперативным играм, обзор используемых численных методов.

Ключевые слова: равновесное программирование, равновесие по Нэшу, некооперативные игры N лиц.

Введение

Состояние равновесия присуще многим объектам современного мира и является предметом изучения различных наук: в механике рассматривается равновесие материальной точки, в термодинамике равновесие определяется как ситуация максимума энтропии системы, в теории игр — как компромисс интересов участников. Равновесное программирование, как и любое другое направление оптимизации, представляет собой инструментарий для решения задач определенного вида.

Предметом равновесного программирования является нахождение неподвижных точек некоторых экстремальных многозначных отображений. Формулировка задачи представлена, например, в [1, с. 29-30]. Требуется найти неподвижную точку точечно-множественного отображения V ^ Ш(у) либо установить, что её нет:

V € Ш(V)) = А^шт{Ф(г;,т) : т Е П}.

Здесь П — некоторое множество из , функция Ф(у,т) определена на П х П. В случае существования неподвижной точки V она является искомым равновесным положением.

Более сложные формулировки задачи, например, содержащие функциональные ограничения [2; 3], позволяют описывать задачи выпуклого программирования [1, с. 40-44] и многокритериального программирования [4], возникающие в технических задачах вариационные неравенства с наличием и отсутствием связанных ограничений [5], обратные задачи оптимизации [6], различные игровые постановки [1; 2].

1. Связь равновесного программирования с антагонистическими играми и выпуклым программированием

Рассмотрим задачу выпуклого программирования

/о(ж) ^ шт,

/г(х) ^ 0, г = 1, ...,т, (1)

х Е .X,

где /г(х) при г = 0,1, ...,т — непрерывные выпуклые функции, X — выпуклое компактноное множество. Покажем, каким образом свести (1) к задаче равновесного программирования, а также установим связь с играми с нулевой суммой. Функция Лагранжа для задачи выпуклого программирования имеет вид

т

Ь(х, А) = /о(х) + ^ Аг/г(х), А* ^ 0.

г=1

Здесь обозначено А = (А1,..., Ат).

Предположим, что для задачи (1) выполнены следующие условия.

1. Задача удовлетворяет условию Слейтера: существует х0 Е X такое, что

/г(х0) < 0, г =1,..., т.

2. Существует конечная оценка снизу оптимального решения двойственной задачи, обозначим ее 7.

Введем в рассмотрение множество

Аг(-/г(х0)) ^ /о(х0) - 7, Аг ^ 0, г = 1, ...,т| .

Обозначим оптимальное решение прямой задачи (1) через V, а оптимальное решение двойственной задачи через у. Пусть выполняется условие

у = шахшт Ь(х, А) = Ь(х*, А*) = штшах Ь(х, А) = V.

Лейл хеХ хеХ Лейл

Определим ^ = X х 5\, г = (х,А) Е ^ и введем отображения

Фх(А) = А^шт{Ь(х, А) : х Е X},

ФЛ(х) = А^шт{Ь(х, А) : А Е £л}.

Тогда экстремальное отображение Ф(г) = Фх(А) х Фл(х) является замкнутым выпуклозначным полунепрерывным сверху [1, с. 42] и, следовательно, в силу теоремы Какутани [1, с. 35] оно имеет неподвижную точку г* = (х*,А*) Е Ф(г*).

Отсюда получаем х* Е Фх(А*), А* Е Фл(х*), что эквивалентно выполнению неравенства

Ь(х*,А) < Ь(х*,А*) < Ь(х,А*), т. е. г* = (х*, А*) — седловая точка функции Лагранжа.

Пример 1. Рассмотрим задачу выпуклого программирования

/0(х1,х2) = х1 + 4х21пх2 ^ шin,

/1(х) = —х1 — х2 < 0, х Е X = {1 < х1 < 3, 1 < х2 < 3},

(2)

где /г(х) при г = 0,1 — непрерывные выпуклые функции, X — выпуклое компактное множество.

Представим эту задачу как игру двух лиц с нулевой суммой. Будем интерпретировать X = {1 < х1 < 3, 1 < х2 < 3} как множество стратегий первого игрока, а функцию Лагранжа Ь(х1,х2, А) = х1 + 4х21п х2 + А(—х1 — х2) — как функцию проигрыша первого игрока и, соответственно, выигрыша второго игрока.

Множество {А ^ 0} будет множеством стратегией второго игрока. Сузим его так, чтобы не потерять искомое равновесие. Для этого решим двойственную задачу

шт Ь(х1,х2,А)= шт |х? — АхЛ + шin |4х21пх2 — АхЛ.

(хьх2)€Х 1< хх<3 1 1< х2^3

Рассмотрим первое слагаемое шin {х^ — Ах1}: х1 = ±л/А/3 — экстремумы

1<хх<3

х1 = ±л/А; 0 — нули функции, причем 1 < х1 < 3. Тогда

{1 — А, 0 < А < 3 (достигается в х1 = 1);

— 3А\/3, 3 < А < 27 ^достигается в х1 = ;

27 — 3А, А ^ 27 (достигается в х1 = 3).

(3)

Теперь рассмотрим второе слагаемое тт {4х2 1пх2 — Ах2}: х2 = еЛ/4 1 — экс-

1< х2 <3

тремум, а х2 = еЛ/4;0 — нули функции, причем 1 < х2 < 3. Отсюда получаем, что

тт {4х2 1п х2 — Ах2}

1< х2<3

— А, 0 < А < 4 (достигается в х2 = 1);

—4еЛ/4-1, 4 < А < 4(1 + 1п3) (в х2 = еЛ/4-1);

121п3 — 3А, А ^ 4(1 + 1п3) (достигается в х1 = 3).

(4)

Используя (3) и (4), найдем теперь

тт Ь(х1,х2,А)

(хх,х2)еХ

Г 1 — 2А,

— 3 А\/3 — А,

— 3 Ал Я — 4еЛ/4-1,

— I— 3А + 12 1п 3, 4(1 + 1п 3) < А < 27;

27 — 6А + 121п3,

а

Для нахождения максимина max min L(xi, ж2, А) рассмотрим каждое выраже-

А^0 (xi,X2)€X

ние в системе: первое выражение меняет знак на 0 ^ А ^ 3, выражения же со второго по пятое принимают только отрицательные значения при заданных А. Отсюда имеем, что max min L(x1, x2, А) = max (1 — 2А) = 1.

А^0 (xbx2)eX 0<A<3

Построим новое множество стратегий второго игрока.

1. Задача удовлетворяет условию Слейтера: существует ж0 = (2, 2) такое, что

/i(x°) = —2 — 2 < °.

2. Существует оценка снизу оптимального решения двойственной задачи 1 >

0. Это любое отрицательное число, например, 7 = —8(13 — ln2).

Тогда множество

SA = ^ А : Аг( —fi(x0)) ^ f0(x0) — Y ^ = {4А ^ 8 + 8 ln 2 + 104 — 8 ln 2} =

= {0 ^ А ^ 28}

будет новым множеством стратегий второго игрока. Рассмотрим следующие экстремальные отображения:

ФХ(А) = Argmin{L(x1, ж2, А) : (x1, x2) G X} =

= Argmin{x1 — Аж1 : 1 ^ ж1 ^ 3} + Argmin{4x2 ln ж2 — Аж2 : 1 ^ ж2 ^ 3} =

' (1,1), 0 ^ А ^ 3;

^,1), 3 < А < 4;

(\/i,eA/4-1), 4 ^ А ^ 4(1 + ln3); (5)

(^f, 3), 4(1 + ln3) < А < 27;

1(3,3), А ^ 27;

ФА(ж) = Argmax{L(x1, x2, А) : А G SA} =

= Argmax{x1 + 4ж2 ln ж2 + А(—ж1 — ж2) : А G SA} =

{0, —ж1 — ж2 < 0;

[1, 28], —ж1 — ж2 = 0;

28, —ж1 — ж2 > 0.

Поскольку 1 ^ ж1 ^ 3, 1 ^ ж2 ^ 3, получим Фа (ж) = 0 на этом множестве.

По теореме Какутани существует неподвижная точка z* = (ж*, А*) G Ф(г*), где

Ф(г) = ФХ(А) х ФА(ж), причем ж* G ФХ(А*), А* G ФА(ж*). Поскольку ФА(ж) = 0, то

А* = 0 и остается найти ж*:

ж* С Фх(0), 0 С Фа(ж*).

Первое выражение в (5) подходит, т. к. Фх(0) = (1,1) при А = 0. Таким образом, (1,1) € Фх(0) и 0 € ФА(1,1), следовательно, ((1,1), 0) — равновесное положение как решение равновесной задачи и как решение игры с нулевой суммой, а также седловая точка для задачи выпуклого программирования (2).

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

2. Равновесное программирование и некооперативные игры. Численные методы

2.1. Понятие равновесия некооперативной игры N лиц

Система Г = (Ж, {Хг}, {/г}, г € N), в которой N = {1, 2,..., п} — множество игроков, Хг — множество стратегий игрока с номером г, / — функция проигрыша игрока с номером г, определенная на декартовом произведении множеств

П

стратегий игроков П = П Хг, называется некооперативной игрой N лиц.

г=1

Игра происходит следующим образом: игроки одновременно и независимо друг от друга выбирают свои стратегии хг из множества стратегий Хг, г = 1, 2,..., п. В результате формируется ситуация х = (х^х2,..., хп), хг € Хг. После этого каждый г-й игрок получает проигрыш /г, и игра заканчивается.

Для игровых ситуаций компромисс в интересах участников может быть представлен как равновесие по Нэшу, определяемое системой экстремальных включений Хг € А^шт{/г(хг, Х-г) : хг € Хг}, г = 1, 2, ...,п, где хг — стратегия г-го игрока, а Х— — стратегии остальных игроков. Тип оптимума зависит от типа функций игроков: являются они функциями выигрышей (тогда берётся А^шах) или же функциями проигрышей (данный случай).

Подобная система посредством введения функции [5]

П

^,ад) = ^ /г (Хг, Х—г) , где V = (Х;),ад = (Х—г), (6)

г=1

П = Х1 х Х2 х ... х Хп, г = 1, 2,..., п, может быть сведена к задаче равновесного программирования.

2.2. Задача равновесного программирования с функциональными ограничениями

В дальнейшем рассматривается следующая задача равновесного программирования с функциональными ограничениями [2]:

V € А^шт{^^,ад) : $(ад) ^ 0,ад € П}, (7)

где ^^,ад) определена на х Мга, П С Мга — выпуклое замкнутое множество, ^(V, ад) выпукла по w при каждом V. Векторная функция $(ад) имеет размерность т и каждая ее компонента есть выпуклая функция.

Для решения такой задачи требуется применение специальных численных методов. Рядом авторов были разработаны численные методы решения подобных задач: проксимальные, градиентные методы, методы, использующие модифицированные функции Лагранжа или верхние и нижние опорные функции.

2.3. Экстрапроксимальный метод решения равновесных задач

По аналогии с задачей выпуклого программирования вводится функция Лагранжа [2]

Ь(г;,ад,р) = ^^,ад) + (р,д(ад)), ад € П, р ^ 0.

В случае регулярности функциональных ограничений (например, при выполнении условия Слейтера) эту задачу можно преобразовать в задачу вычисления седловой точки функции Лагранжа Ь^,ад,р):

^(г),г;) + (р,д^)) ^ ^(V,V) + (р5,g(V)) ^ ^^^) + (р,д(и>)), Vw € П, р ^ 0,

где

V € А^шт{^^^) + (р,#(и>)) : ад € П}, р> € А^шах{^(V,V) + (у, д^)) : у ^ 0}.

Рассмотрим их проксимальные аналоги

V р;

Замечание 1. Проксимальные операторы подробно описаны, например, в [7]. Получили процесс вида

v”+1 = а^шт|+1 |ад — V”-!2 + (рга,д(ад))): w € П

рп+1 = а^шах{ —1 |у — р”|2 + а^^”, V”) + (у^^”))) : у ^ 0}.

Однако такой процесс в общем случае не сходится даже для обычной задачи оптимизации. В этом случае вместо ^(v”,w) будет просто ^(w).

Рассмотрим проксимальный прогнозный, или экстрапроксимальный метод [2]. Он имеет следующие отличия от других методов, предложенных автором А. С. Антипиным.

1. Каждая итерация представляет собой задачу оптимизации сильно выпуклой/вогнутой п-мерной функции, в то время как в прочих методах появляется снова задача равновесного программирования, однако более низкой размерности.

2. Метод является явным, в отличие от других алгоритмов.

3. Метод сохраняет блочно-сепарабельную структуру задачи, а методы с модифицированными функциями Лагранжа ее не сохраняют.

4. Из предыдущих трех пунктов следует, что задача п-мерной оптимизации декомпозируется на п независимых задач одномерной оптимизации сильно выпуклых/вогнутых функций. Это не только упрощает вычисления, но и позволяет распараллелить их, что в значительной степени ускоряет расчеты.

а^шт <{ +2^ — V!2 + а(^(V, w) + (р, д^))) : w € П а1^шах<{ — 1 !у — р|2 + а(^+ (у,д(';))) : у ^ 01.

5. Из недостатков следует отметить «немного более жёсткие» условия сходимости, проявляющиеся, например, в необходимости выполнения условия . Липшица.

Замечание 2. По этим причинам метод был выбран для программной реализации.

Рассмотрим итеративные формулы метода. Дополнительно вводятся два управления по невязкам (А1 и А2), и получаются ещё две дополнительные задачи оптимизации.

Прогнозные шаги экстрапроксимального алгоритма:

А1 = а^шах | — 2|у — р”|2 + а^^”^”^ (у, д^”))): у ^ 0^ — р”,

А2 = а^шт|+2 |w — V”!2 + а(^^”^) + (р” + Аьд^))): w € п| — V”.

Реальные шаги экстрапроксимального алгоритма: v”+1 = а^шт| + 2|w — v”|2 + а(^(V” + А2^) + (р” + Аьд^))) : w € П

р”+1 = а^шах| — 2|у — р”|2 + а(^(V” + А,v” + А2) + (y,д(v” + А2))) : у ^ 0|

Замечание 3. Термины «прогнозные» и «реальные» значения обусловлены экономической интерпретацией, предложенной в [3].

Вместо прогнозных значений можно использовать уже полученные на предыдущем шаге реальные значения

р”+1 = а^шах{ —1 |у — р”|2 + а(^(v”+1,v”+1) + (у,д(и”+1))) : у ^ 0}.

Замечание 4. Программно реализовался этот случай.

В случае тождественно равных нулю функциональных ограничений д^) = 0 для w € П первый и четвертый шаг экстрапроксимального алгоритма примут вид

А1 = а^шах | — 2 |у — р”|2 + а(^(у, 0)) : у ^ 0^ — р” =

= а^шах | — 2|у — р”|2 : у ^ ^ — р” = 0,

р”+1 = а^тах | —1 |у — р”|2 + a(F(v”+1, v”+1) + (у, 0)) : у ^ 0^ = р”,

а значит, в них необходимость пропадает. Тогда экстрапроксимальный алгоритм примет вид

А2 = а^тт| + 2|w — v”|2 + а^1 (v”,w): w € п| — V”, (8)

v”+1 = а^тт|+2|w — v”|2 + а^1 (V” + А2^): w € п| . (9)

2.4. Сходимость экстрапроксимального метода

Рассмотрим предварительно важные понятия, используемые при формулировке теоремы сходимости.

Определение 1. [2] Функция ^^^) : К” х К” ^ М. кососимметрична относительно равновесия V € П при выполнении неравенства

^^^) — ^^^) — ^(V,w) + ^(й^) ^ 0 Vw € П.

Для кососимметричной функции всегда выполняется условие

^(w,V) ^ ^^^) Vw € П. (10)

Однако в случае отсутствия кососимметричности относительно равновесия, но при выполнении условия (10), метод все равно может быть использован [2].

Определение 2. [5] Функция ^^^) : К” х К” ^ К удовлетворяет условию Липшица при выполнении неравенства

|[^(V + + к) — ^(V + Л,w)] — (V,w + к) — ^(V,w)]| ^ |^| ■ |Л| ■ |к| (11)

Vw, w + к, V, V + Л € П, где |^| — константа.

Класс функций, удовлетворяющих условию (11), не пуст, причем выполнена

следующая

Лемма 1. [2] Пусть ^^^) — дифференцируемая функция, чей частный градиент по переменной w удовлетворяет следующему условию Липшица:

|^+ к) — ^^^)| ^ |^| ■ |к| (12)

Vw,w + € П, где |^| — константа.

Тогда для ^ выполняется условие Липшица (11).

Замечание 5. Для применимости экстрапроксимального алгоритма дифференцируемость не требуется.

Теорема 1. [2, Теорема о сходимости экстрапроксимального метода] Пусть выполнены следующие условия :

1) множество решений исходной равновесной задачи не пусто, и задача кососимметрична относительно равновесия;

2) целевая функция ^(V, w) непрерывна по V и выпукла по w при каждом V ;

3) векторная функция д^) выпукла по w;

4) F^^) и д^) удовлетворяют условиям Липшица.

Тогда последовательность V”, порожденная экстапроксимальным методом с параметром а, удовлетворяющим условиям

0 < а < (2 ■ (|Р|2 + |д|2))-1/2, где |Р|, |д| — постоянные Липшица, (13)

сходится монотонно по норме к одному из равновесных решений :

liш V” = V.

В следующей части рассматриваются различные некооперативные игры. С помощью формулы перехода (6) формулируется равновесная задача (7) и на ней тестируется программно реализованный экстрапроксимальный метод. Проверяются достаточные условия сходимости метода (теорема 1), либо аналитически находятся все равновесные положения, либо проверяется правильность численных результатов. Делается вывод на основании численных и аналитических результатов о применимости метода к игре.

3. Тестирование метода на примерах некооперативных игр

3.1. Случай выполнения достаточных условий сходимости

3.1.1. Игра без функциональных ограничений Пример 2. Заданы функции игроков

/1 = (Х2 + 5)4 ■ жь /2 = (2x2 — 4)4 ■ ж?

и множества стратегий

—20 ^ ж1 ^ 20, —15 ^ ж2 ^ 25.

Покажем, что данная игра удовлетворяет всем условиям теоремы 1. Составим функцию

Р(V,W) = ^ /(Жг,Ж-г) = (ж2 + 5)4 ■ у1 + (2у2 — 4)4 ■ Ж^ V = (Ж1,Ж2), W = (у1,у2).

г=1

Она выпукла по w, проверим выполнение условия (10):

Ж1 = argшin{(Ж2 + 5)4 ■ у1 : —20 ^ у1 ^ +20} = —20,

Ж2 = argшin{(2y2 — 4)4 ■ Ж2 : —15 ^ у2 ^ +25} = 2.

Так как

Р(w,w) = (у2 + 5)4 ■ у1 + (2у2 — 4)4 ■ у2,

Р(w,v) = (у2 + 5)4 ■ Ж1 + (2Ж2 — 4)4 ■ у2,

то получим

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

(у2 + 5)4 ' Ж1 + (2Ж2 — 4)4 ' у2 = (у2 + 5)4 ' ( —20) + 0,

откуда

(у2 + 5)4 ■ ( —20) + 0 ^ (у2 + 5)4 ■ у1 + (2у2 — 4)4 ■ у2.

В силу дифференцируемости и ограниченности градиента Р(V, w) будет, по лемме

1, выполняться условие Липшица (11).

Метод применялся при начальном положении V0 = (—5, 24). При различных начальных положениях метод сходится к одному и тому же равновесному положению V = (Ж1,Ж2) = (—20, 2). При этом векторы невязки сходятся по норме к нулевому вектору, а итерационные векторы стремятся к равновесному.

3.1.2. Игра с функциональными ограничениями

Функциональные ограничения

д1(Ж1,Ж2) = ж1 — 20 ^ 0, д2(Ж1,Ж2) = Ж4 — 2.4 ^ 0

являются выпуклыми и удовлетворяют условию Липшица, а значит, выполняются достаточные условия сходимости метода. Получены следующие результаты при различных начальных векторах: положение V = (Ж1,Ж2) ~ (—2.1147,1.2448) удовлетворяет функциональнным ограничениям и действительно является равновесным,

Ж1 = а^тт{(Ж2 + 5)4 ■ у1 : —20 ^ у1 ^ +20, д1(у1,Ж2) ^ 0} = —2.1147, Ж2 = argшin{(2y2 — 4)4 ■ Ж^ : —15 ^ у2 ^ +25, д2(Ж1,у2) ^ 0} = 1.2448.

3.2. Случай получения равновесий при нарушении достаточных условий сходимости

Пример 3. Пусть заданы функции игроков

/1 = (Ж1 — 5)5 ■ Ж2,

/2 = — (Ж2 + 15)3 ■ Ж4,

/з = (Жз — 4)2 ■ Жз,

/4 = Ж1 ■ Ж2 ■ Ж3 ■ Ж4

и множества стратегий

— 20 ^ Ж* ^ 20, г = 1, 2, 3, 4.

Это игра без функциональных ограничений. Игра не удовлетворяет условиям теоремы 1, например, отсутствует выпуклость. В случае V0 = (0, 0,0, 0) уже после первой итерации получается равновесный вектор V = (0, 0, —20, 0).

Из вида /1 получено

Ж1 = а^т^^ — 5)5 ■ Ж2 : —20 ^ у1 ^ +20} = = а^т^^ — 5)5 ■ 0 : —20 ^ у1 ^ +20}

при всех yi, -20 ^ y1 ^ 20, а значит, и нулевое значение, как в V. Аналогично из /2 и /4 получим нулевые Х2 и Х4. Для /з имеем

Хз = argmin{(y3 - 4)2 ■ уз : -20 ^ yi ^ +20} = -20.

Однако уже при незначительном изменении начального положения v0 =

(0, 0, 0, 0.0000001) получается иной результат. Отсутствие по крайней мере выпуклости на всем многоугольнике стратегий привело к потере непрерывной зависимости от начального положения около нуля. Причем сам результат зависит от номера текущей итерации: алгоритм циклически перемещается от одного положения (20, 20,-20, 20) к другому (20,-20,-20, 20). Эти положения являются равновесными в силу особенностей функций, определяющих игру.

3.3. Случай появления неравновесных положений при отсутствии выполнения достаточных условий сходимости

Пример 4. При функциях игроков

/1 = COs(xi + Х2),

/2 = -x1 ■ cos Х2

и множествах стратегий

-20 ^ x ^ +20, i = 1, 2,

рассмотрим игру без функциональных ограничений. Функция

F(v, w) = COs(yi + Х2) + (-Х1) ■ cos У2, V = (Х1,Х2), W = (yi,y2),

непрерывна по v при каждом фиксированном w, однако не является выпуклой на всем многоугольнике стратегий. В силу дифференцируемости и ограниченности её градиента существовует константа Липшица (12). Кососимметричность функции наблюдается также не во всех точках прямоугольника. Рассмотрим возможные равновесия:

1) x1 = п + 2п1, x2 = 2пк;

2) x1 = 2nl, x2 = п + 2пк.

При работе алгоритма (с округлением) получено два типа результатов.

I тип:

3п G argmin{cos(X2 + y1) : -20 ^ y1 ^ +20} =

= argmin{cos(2n + y1) : -20 ^ y1 ^ +20} = п + 2nl, l G Z,

4п G argmin{(-;г1) ■ cosy2 : -20 ^ y2 ^ +20} =

= argmin{(-5п) ■ cos y2 : -20 ^ y2 ^ +20} = 2nk, k G Z;

-2п G argmin{cos(X2 + y1) : -20 ^ y1 ^ +20} =

= argmin{cos(5n + y1) : -20 ^ y1 ^ +20} = 2nl, l G Z,

5п G argmin{(-Х1) ■ cos y2 : -20 ^ y2 ^ +20} =

= argmin{(+4n) ■ cosy2 : -20 ^ y2 ^ +20} = п + 2пк, k G Z.

II тип: v = (-7, -15) не является равновесным, поскольку

-7 G argmin{cos(-15 + y1) : -20 ^ y1 ^ +20}, -15 G argmin{7 ■ cos y2 : -20 ^ y2 ^ +20}.

Отсутствие выпуклости и кососимметричности на всем многоугольнике стратегий привело к отсутствию сходимости к равновесному положению из некоторых начальных положений.

4. Модификация экстрапроксимального метода

Пример 5. Пусть функции игроков имеют вид

/i = (xi - Х2)2,

f2 = (x2 - Хз^

/з = (Хз - Х4)2,

/4 = (Х4 - Х1)2,

а множества стратегий —

-20 ^ х* ^ +20, i = 1, 2, 3, 4.

Рассмотрим игру без функциональных ограничений. Равновесными являются стратегии вида

x1 = х2 = хз = Х4.

За 140 итераций метод сошелся к равновесному положению (15.25,15.25,15.25,15.25).

4.1. Функции и расстояния Брегмана

Пусть S — выпуклое открытое множество в Rn, S — его замыкание, h — выпуклая вещественная функция, определенная на S, Dh(x,y) = h(x) - h(y) -(Vh(y),x - y), где Vh(y) — градиент функции h.

Определение 3. [8] Функция h называется функцией Брегмана при выполнении следующих условий :

1) h строго выпукла и непрерывна на S ;

2) h непрерывно дифференцируема на S ;

3) для всех x G S и 8 G R правый частичный уровень множества (x,8) = {y G S : Dh(x,y) ^ 8} ограничен;

4) если последовательность {ук} С S сходится к у, то последовательность {Dh(yk, у)} сходится к нулю.

Если h — функция Брегмана, то Dh — расстояние Брегмана, ассоциируемое с ней. Оно имеет следующие свойства:

1) Dh(x,y) ^ 0;

2) Dh(x,y) = 0 ^ x = у;

3) Dh(x,y) строго выпукла по x при у G S.

Определение 4. Если

Vy G Rn 3x G S : Vh(x) = y, то функция Брегмана называется коэрцитивной на области S.

Примеры функций Брегмана

1. Пусть S = Rn и функция Брегмана h(x) = ||x||2/2, тогда расстояние Брегмана Dh(x, у) = | |x — у||2/2.

П

2. Пусть S = R+ и функция Брегмана h(x) = x* ln x* непрерывно расши-

i=1

рена на границу положительного ортанта R+ посредством соглашения, что

def

0 ln 0 = 0. Расстояние Брегмана тогда принимает следующий вид:

n n

Dh (x, у) = h(x) — h(y) — (Vh(y), x — у) = x* ln x* — у* ln у* —

i=1 i=1

nn

— (In у* + 1)(x* — у*) = J^(x* ln(xi/yi) + у* — x*). (14)

i=1 i=1

Расстояние (14) называется расстоянием Кульбака - Лейблера.

При сепарабельности функции Брегмана сепарабельно и ассоциируемое с ней расстояние Брегмана.

Вопрос: Что будет, если заменить квадратичные члены в (8), (9) расстоянием Брегмана?

4.2. Генерализованный проксимальный метод на положительном ортанте

Рассмотрим так называемый Bregman Distance Interior Proximal (BDIP) Method [8]. Пусть выполняются следующие условия:

1) 0 < вк ^ в , в > 0;

2) Dh(x, у) — расстояние Брегмана, ассоциируемое с функцией Брегмана h с областью S = R+;

3) Н сепарабельна и коэрцитивна на области.

Алгоритм метода имеет следующий вид.

1. Инициация: начальное положение х0 > 0.

2. Основной шаг: имеем хк > 0, при V/(хк) = 0 прекращается, иначе жк+1 € (г € а^шт{/(х) + вк^(х,хк) : х € Ега} : г € Е+}. При Иш вк = 0

последовательность (хк} сходится к оптимуму.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

В случае замены проксимальной формы на обобщенную проксимальную (БВ1Р) итеративные формулы экстрапроксимального метода (8), (9) могут принять следующий вид:

А = а^шт{вга^(ад, V”-) + Р(^ад) : ад € П} — V”-, (15)

^”'+1 = а^тт{вп^(ад, Vй) + Р(^га + А, ад) : ад € П}. (16)

Определение 5. Метод (15), (16) назовем модифицированным экстрапрокси-мальным методом.

Для тестирования в качестве сепарабельного расстояния Брегмана выбра-

П

но расстояние Кульбака - Лейблера Д^(х,у) = ^^(х» 1п(х»/у) + у — х»). Тогда

»=1

алгоритм (15), (16) принимает вид

(ад» 1п(адг/^™) + V™ — ад»)) + Р(^га,ад) : € П | — Vй, (17)

(ад» 1п(ад»/^П) + V™ — ад»)) + Р(^га + А, ад) : ад € П| . (18)

Алгорим (17), (18) применялся к игре из примера 5, получено равновесное положение (12.7335,12.7335,12.7335,12.7335), причем векторы невязок стремятся по норме к нулевому вектору, а итерационные векторы сходятся к равновесному.

Таким образом, можно пробовать заменять различными расстояниями Брегмана квадратичные члены в (8), (9), чтобы пытаться получить, например, более высокую скорость сходимости.

Список литературы

1. Зоркальцев, В. И. Равновесные модели в экономике и энергетике / В. И. Зор-кальцев, О. В. Хамисов. — Новосибирск : Наука, 2006. — 221 с.

2. Антипин, А. С. Равновесное многокритериальное программирование: проксимальные методы / А. С. Антипин // Журн. вычисл. математики и мат. физики. — 1997. — Т. 37, № 11. — С. 1327-1339.

3. Антипин, А. С. Равновесное программирование: методы градиентного типа / А. С. Антипин // Журн. автоматики и телемеханики. — 1997. — № 8. — С. 125137.

А = а^шт < вп(У^

I »=1

( П

■■ а^шт < вп(У^

»=1

4. Антипин, А. С. Равновесное многокритериальное программирование: экстра-проксимальные методы / А. С. Антипин // Журн. вычисл. математики и мат. физики. - 2007. - Т. 47, № 12. - С. 1998-2012.

5. Антипин, А. С. Методы решения вариационных неравенств со связанными ограничениями / А. С. Антипин // Журн. вычисл. математики и мат. физики. — 2000. — Т. 40, № 9. — С. 1231-1307.

6. Антипин, А. С. Обратная задача оптимизации: постановка задачи и подход к ее решению / А. С. Антипин // Обратные задачи мат. программирования. — М. : ВЦ РАН, 1992. - С. 3-33.

7. Васильев, Ф. П. Методы отпимизации / Ф. П. Васильев. — М. : Факториал Пресс, 2002. — 824 с.

8. Suzoa, Sissy da S. A proximal method with separable Bregman distances for quasiconvex minimization over the nonnegative orthant / Sissy da S. Suzoa, P. R. Oliveira, J. X. da Cruz Neto et al. // European Journal of Operational Research

— 2010. — Vol. 201, № 2. — P. 365-376.

i Надоели баннеры? Вы всегда можете отключить рекламу.