УДК 62-50:519.7/8
Левин В. И.
Д-р техн. наук, профессор, Пензенский государственный технологический университет, Россия
УСТОЙЧИВОСТЬ РЕШЕНИЯ ЗАДАЧ ОПТИМАЛЬНОГО ПРОЕКТИРОВАНИЯ СИСТЕМ С ИНТЕРВАЛЬНЫМИ ПАРАМЕТРАМИ
Рассмотрена задача оптимизации неполностью определенных (недетерминированных) функций, т.е. функций с параметрами, заданными лишь с точностью до интервала. Показано, что решение этой проблемы требует также рассмотрения задачи определения устойчивости оптимума к варьированию значений параметров функции. Предлагается метод нахождения оптимума функций и определения его устойчивости методами интервальной математики.
Ключевые слова: оптимизация систем, неопределенность, устойчивость оптимума, варьирование параметров, интервальная математика.
ВВЕДЕНИЕ
На сегодняшний день в мире имеется обширная литература по оптимизации (оптимальному проектированию) различных систем с детерминированными параметрами - технических, экономических и т. д. Соответствующие задачи формулируются как задачи математического программирования с целевыми функциями и функциями ограничений, параметры которых являются детерминированными величинами. Однако на практике по объективным причинам чаще встречаются системы с недетерминированными параметрами. Оптимизация такого рода систем формализуется в виде задач математического программирования с целевыми функциями и функциями ограничений, параметры которых - различные недетерминированные величины: случайные, нечеткие, интервальные и т. д. Эти задачи, вообще говоря, сложнее детерминированных. Они требуют обобщения понятия экстремума функции, выяснения условия его существования, связанных с недетерминированностью параметров функции, и создания специальных методов поиска экстремума таких функций.
Известно три различных подхода к решению недетерминированных задач математического программирования: детерминированный, вероятностный [1] и интервальный [2]. Детерминированный подход заключается в решении задачи для определенных значений ее параметров, выбранных внутри соответствующих заданных областей неопределенности. Например, могут быть выбраны центры (середины) областей неопределенности параметров (центральная стратегия), наихудшее сочетание значений параметров задачи (пессимистическая стратегия), их наилучшее сочетание (оптимистическая стратегия) и т. д. Вероятностный подход заключается в решении задачи для усредненных (ожидаемых, в смысле математического ожидания) значений ее параметров, что предполагает задание вероятностной меры внутри соответствующих областей неопределенности. Оба указанных подхода объединяет предварительная детерминизация параметров за-
дачи, выполняемая перед ее оптимальным решением. В отличие от них, интервальный подход не предполагает детерминизации параметров задачи, которые задаются в интервальной форме - в данном подходе оптимальное решение задачи проводится в ее «естественной форме», т. е. на основе прямого сравнения недетерминированных значений целевой функции, соответствующих различным значениям вектора аргументов, и выборе оптимального (максимального или минимального) значения данной функции. Достоинства и недостатки указанных трех подходов рассмотрены в [1-8].
Изложенные подходы к решению недетерминированных задач математического программирования, при всем их очевидном различии, объединяет одна существенная черта. А именно, все они предназначены для решения задач оптимизации, в которых параметры целевых функций и функций ограничений точно не известны. Поэтому мы не можем ограничиться простым отысканием оптимального решения нашей задачи, используя один из упомянутых выше методов. В самом деле, из-за отсутствия при решении задачи точных значений ее параметров может оказаться, что действительные значения параметров задачи несколько отличаются от тех, которые были приняты в процессе отыскания решения. В этом случае, для того чтобы найденное оптимальное решение задачи имело содержательный прикладной смысл, нам нужно, чтобы оно еще обладало следующим свойством: при небольшом варьировании значении параметров решаемой задачи ее оптимальное решение должно по-прежнему существовать. При этом точка, в которой достигается оптимум целевой функции, может переместиться из исходного положения в новое положение, которое, однако, должно быть близко к исходному. Другими словами, требуется, чтобы найденное оптимальное решение неполностью определенной (недетерминированной) задачи математического программирования было устойчивым относительно небольших количественных изменений ее параметров.
© Левин В. И., 2013
1 ПОСТАНОВКА ЗАДАЧИ
Рассмотрим сначала детерминированный случай. Пусть задана некоторая произвольная непрерывная функция n переменных
y = F (xi,..., Xn), (1)
где параметры (коэффициенты) ее явного представления рк, к = 1, l, известны точно. Будем рассматривать функцию (1) в ограниченной области, определяемой системой ограничений
Ф, (x1,..., xn) < b,, i = 1, m }, (2)
в которой параметры qs, s = 1, t, явного представления функций ограничений Ф, и правые части bi также известны точно.
Тогда относительно функции (1) можно сформулировать полностью определенную задачу условной оптимизации (задачу математического программирования)
F (x1,..., xn) = max, (3)
при условии
Ф, (X1,...,Xn) <b, i = 1,m }. (4)
Решением задачи (3), (4) является некоторая точка x = (x*,..., x*) (множество точек M={x*}) области (4), в которой целевая функция f достигает максимального значения Fmax. В современном математическом программировании разработано множство различных методов эффективного решения задач вида (3), (4), ориентирующихся на тип целевой функции F, а также функций ограничений Ф,, i = 1, m.
Предположим теперь, что в задаче оптимизации (3), (4) параметры явного представления целевой функции F, а также параметры явного представления функций ограничений Ф, и правые части ограничений bi известны не точно, а приближенно. Тогда, в соответствии со сказанным в п. 1, мы должны совместно с задачей условной оптимизации (3), (4) рассматривать еще следующую задачу: проверка устойчивости (неустойчивости) решения задачи (3), (4) относительно небольших количественных изменений ее параметров.
В отличие от существующих сегодня методов изучения устойчивости решения задач оптимизации [5], будем рассматривать все возможные количественные изменения каждого параметра задачи как единое целое. Такое рассмотрение позволяет задавать все возможные количественные изменения параметров задач оптимизации в теоретико-множественных терминах. Простейший способ такого задания заключается в том, чтобы задать совокупность указанных изменений параметров задачи в виде соответствующих числовых интервалов. Преимущество такого подхода к изучению устойчивости решения задач оптимизации состоит в том, что в его
рамках изучать устойчивость задач оптимизации можно с помощью хорошо разработанных методов интервальной математики [9].
Итак, совместно с полностью определенной задачей (3), (4) мы должны рассмотреть производную от нее интервальную задачу условной оптимизации
F (x1,..., xn) = max, (5)
при условии
Ф, (x1,..., xn) < b, , i = 1, m }. (6)
Целевая функция F интервальной задачи оптимизации (5), (6) получается из целевой функции F искомой, полностью определенной задачи оптимизации (3), (4)
путем замены ее точных параметров рк, к = 1,1, соответствующими интервальными параметрами рк = [pk1, pk2], к = \l, которые и определяют интервальную целевую функцию F. Аналогично этому, любая функция ограничений Ф i, i = 1, m, интервальной задачи условной оптимизации (5), (6) получается из соответствующей функции Ф, , i = 1, m, исходной полностью определенной задачи (3), (4) заменой ее точно известных параметров qsi, s = 1, t, i = 1, m, соответствующими интервальными параметрами qsi = [qsi1, qsi2], s = 1,t, i = 1,m.
Точно так же интервальные параметры b,i=\ m, в ограничениях интервальной задачи условной оптимизации (5), (6) заменяют собой соответствующие точно известные параметры b, ,i = 1, m в ограничениях исходной, полностью определенной задачи оптимизации (3), (4).
Будем называть полностью определенную задачу условной оптимизации (математического программирования) (3), (4) макроустойчивой, если она имеет решение и, кроме того, имеет решение производная от нее интервальная задача оптимизации (5), (6).
Далее, будем называть полностью определенную задачу условной оптимизации (математического программирования) (3), (4) микроустойчивой, если она макро-устойчива и, сверх того, существует пара решений (x', x"), где x = (x1,..., x'n) - некоторая точка решения задачи оптимизации (3), (4), а x" = (x[,...,x'n) - некоторая точка решения задачи (5), (6), расстояние между которыми D(x', x") не превосходит заданной достаточно малой величины d.
Задача настоящего исследования - разработать алгоритмы определения макро- и микроустойчивости полностью определенных задач условной оптимизации типа
(3), (4).
2 МАТЕМАТИЧЕСКИЙ АППАРАТ
В основу решения поставленной задачи положим аппарат интервальной математики [9], где алгебраические операции над интервальными числами
а = [зьа2], Ь = [¿1,Ь2],... вводятся как следующие теоретико-множественные конструкции
а + Ь = {а + Ь | а е а, Ь е Ь}, а — Ь =
= {а — Ь | а е а, Ь е Ь}, к3 = {ка | а е 3} ,... (7)
и т. д. Другими словами, любая операция над интервалами определяется на основе соответствующей операции над точечными величинами, при условии, что конкретные значения величин пробегают все возможные значения из соответствующих интервалов. Из введенных алгебраических операций над интервалами вытекают простые правила выполнения операций:
[«Ь ¡2] + [Ь1,Ь2] = [а1 + Ь1, а2 + Ь2],
[а1, а2~] — [Ь1, Ь2] = [а — Ь2, а2 — Ь]
\\кау,кз2], к > 0, к[«1, з2 ] = 1
[[кз2, кз^, к < 0;
[¡1, з2 ] • [Ь1, Ь2] = [шт(зг- • Ь), шах(зг- • Ь)];
[а1, а2]/[Ь1, Ь2] = [ауа2] •[И Ь2,1/Ь1]. (8)
Введем теперь операции сравнения интервальных чисел [2, 8]. Попытаемся сравнить интервалы а = [¡1, а2] и Ь = [Ь{, Ь2], рассматривая их как интервальные числа.
Естественно начать со сравнения интервалов а и Ь на базе сравнений в отдельных парах вещественных чисел
(^ ,Ьу-), где а е а, Ь еЬ. Однако такой подход приведет нас к провалу, так как в общем случае одни пары чисел (а, Ь]-) будут находиться в отношении а > Ь]-, а другие - в противоположном отношении: а{ < Ь]-. Единственное, что остается - реализовать операцию сравнения интервалов на теоретико-множественном уровне, подобно алгебраическим операциям над интервалами (7). В соответствии со вышесказанным, введем операции взятия максимума V и минимума л двух интервальных чисел 3 = [о^, а2] и Ь = [Ь1, Ь2] в виде конструкций
а V 1> = {а V Ь | а е а, Ь е Ь},
а л Ь = {а лЬ | а е 3, Ь е Ь}. (9)
Операция взятия максимума (минимума) из двух
интервалов 3 и Ь, согласно (9), определяется как нахождение максимума (минимума) из двух точечных величин а и Ь, при условии, что конкретные значения этих величин пробегают все возможные значения соответственно из интервалов з и Ь. Чтобы интервалы з и Ь можно было сравнить по величине, установив их отношение (а > Ь или ¡3 < Ь), нужно, чтобы: 1) введенные
операции V, л над этими интервалами существовали; 2) их результатом был один из операндов 3 или Ь; 3) операции V, л были согласованными между собой, т. е. было выполнено условие: если большим (меньшим) является один из интервалов 3, Ь, то меньшим (большим) является другой из них. Условие сравнимости величин двух интервалов является, очевидно, необходимым и достаточным условием. Однако легко доказать, что условие согласованности операций V и л над интервалами выполняется всегда (для любой пары интервалов (3, Ь)). Также всегда (для любой пары интервалов) выполняется условие существования введенных нами выше операций взятия максимума V и минимума л двух интервалов, причем результатом операции оказывается некоторый, вообще говоря, новый интервал. В конечном итоге необходимое и достаточное условие сравнимости интервалов а и Ь превращается в условие, по которому операции 3 V Ь и 3 л Ь должны давать в результате обязательно один из интервалов-операндов: а или Ь. Такая формулировка условия сравнимости интервалов дает возможность получения его в конструктивной форме, пригодной, к тому же, для практического применения. Это является базовой формой условия.
Теорема 1. Для сравнимости двух интервалов
3 = [¡1, ¡2 ] и Ь = [Ь1, Ь2 ] и их нахождения между собой в
отношении 3 > Ь необходимо и достаточно, чтобы одноименные границы этих интервалов удовлетворяли условиям
¡1 > Ь1, ¡2 > Ь2, (10)
а для сравнимости этих интервалов и их нахождения между собой в отношении 3 < Ь - чтобы удовлетворялись следующие условия:
¡1 < Ьь ¡2 < Ь2. (11)
Согласно утверждению теоремы 1, интервалы 3 и Ь являются сравнимыми и находятся в определенном отношении порядка а > Ь или 3 < Ь только когда в таком же отношении находятся их одноименные границы ¡1, Ь и ¡2, Ь2. Другими словами, для сравнимости интервалов меньший интервал должен быть сдвинут обеими границами влево относительно большего интервала. Итак, с помощью теоремы 1 сравнение двух интервалов и выбор большего (меньшего) из них сводится к сравнению одноименных границ этих интервалов, являющихся точно известными вещественными числами.
Теорема 2. Для несравнимости двух интервалов
3 = [¡1, ¡2 ] и Ьь = [Ь^, Ь2 ], т. е. для того, чтобы они не находились ни в отношении 3 > Ь , ни в отношении 3 < Ь , необходимо и достаточно, чтобы одноименные границы интервалов удовлетворяли условиям
¡1 < ¿1, ¡2 > ¿2 или ¿1 < ¡1, ¿2 > ¡2 . (12)
Стоит отметить, что условия (12) обозначают ту ситуацию, когда один интервал на числовой оси полностью «накрывает» другой.
Теорема 2 показывает существование случаев несравнимости интервалов. Несравнимость некоторых интервалов - естественное следствие того, что, в отличие от точных вещественных чисел, интервальные числа задаются с некоторой неопределенностью (точно известно, что вещественное число принимает некоторое значение в заданном интервале, но не известно, какое именно это значение). Далее, теоремы 1 и 2, посвященные сравнению пар интервалов, можно обобщить на системы с произвольным числом интервалов.
Теорема 3. Для существования в системе интервалов
5(1) = [01(1),»2(1)], <5(2) = [01(2),02(2)],... максимального интервала необходимо и достаточно, чтобы его границы располагались относительно одноименных границ всех остальных интервалов согласно следующим условиям
01(1) > ^(2), 01(1) > 01(3),...;
02(1) > 02(2), 02(1) > 02(3),... (13)
Условия-неравенства (13) записаны для конкретного случая, когда максимальным является интервал 0(1), что не ограничивает общности.
Теорема 4. Для существования в системе интервалов
0(1) = [01 (1), 02 (1)], ¿0(2) = [01 (2), 02 (2)],... минимального интервала необходимо и достаточно, чтобы его границы были расположены относительно одноименных границ всех остальных интервалов согласно условиям
01(1) < 01(2), 01(1) < 01(3),...;
02(1) < 02(2), 02(1) < 02(3),... (14)
Условия (14), аналогично условиям (13), записаны для случая, когда минимальным является интервал 0(1), что не ограничивает общности.
Теоремы 3, 4 означают, что интервал является максимальным (минимальным) из интервалов системы только если максимальны (минимальны) его нижняя граница - среди нижних границ всех интервалов - и верхняя граница - среди верхних границ всех интервалов.
3 МАКРОУСТОЙЧИВОСТЬ ЗАДАЧИ УСЛОВНОЙ ОПТИМИЗАЦИИ
Обратимся к полностью определенной задаче условной оптимизации (3), (4) и опишем метод установления макроустойчивости этой задачи. Полностью определенная задача условной оптимизации (3), (4) по определению (см. п. 2) является макроустойчивой, если она сама и производная от нее интервальная задача условной оптимизации (5), (6) имеют решения. Существование решения полностью определенной задачи условной оптимизации (3), (4) можно установить с помощью общеизвестных мето-
дов математического программирования [10-12], так что здесь нет никаких проблем. Сложнее обстоит дело с проверкой существования решения интервальной задачи условной оптимизации (5), (6). Здесь эффективным оказывается применение детерминизационного метода решения задач интервальной оптимизации [2, 8, 13].
Интервальная задача условной оптимизации (5), (6)
имеет интервальную целевую функцию Р^,..,Хп), интервальные функции ограничений Ф. ,1,т, в левых частях ограничений и интервальные параметры Ь., 1 = 1, т, в правых частях. Используя формулы элементарных преобразований интервалов (8), функции р и Ф. можно представить явно в интервальной форме. Так же можно представить и параметры Ь.. Все эти представления записываются в виде
р (X1,..., Хп ) = [ р1( X1,..., хп х р2( x1,..., хп )]
Ф.(Х1,...,Хп) = [ФЛ(Х1,...,Хп),Ф.2(Х1,...,Хп)], 1 =1,т, (15)
Ь = [Ь1 Ь12] 1 =1, т.
После этого всю интервальную задачу условной оптимизации (5), (6) также можно переписать в явном интервальном виде
[Р1(Х1,..., Хп), р2(Х1,..., Хп)] = тах, (16)
[Ф11(Х1,...,Хп),Ф.2(Х1,...,Хп)] < [Ь.1,Ь.2], 1 = 1,т }. (17)
От интервального представления задачи (16), (17) перейдем к ее эквивалентному представлению в виде пары полностью определенных (детерминированных) задач условной оптимизации, которое уже поддается решению. Для этого сначала по теореме 3 представим интервальное уравнение (16) в виде эквивалентной пары детерминированных уравнений
Р!(хь..., Хп) = тах, р (Х1,..., Хп) = тах. (18)
Далее, по теореме 1 представим систему интервальных неравенств (17) в виде эквивалентной системы обычных детерминированных неравенств
Фц(Х1,...,Хп) < Ьа, Ф.2(Х1,...,Хп) < Ьп,1 = 1,т. (19)
Соединив пару уравнений оптимизации (18) с системой неравенств-ограничений (19), получаем совокупность двух полностью определенных задач условной оптимизации вида (3), (4)
р1(Х1,..., Хп) = тах,
ФЦСХ1,..., Хп) < Ь11,1 = 1 m, 1
Ф.2(Х1,..., Хп) < ь.2 , 1=1т, | (20)
F2 (хп) = max,
фг1(х1;..., хп) < Ьл, i = 1,т, j (21)
ф 2 (хп ) < bi2, i = 1, m,J
эквивалентную исходной интервальной задаче условной оптимизации (5), (6). Задачу (20) будем называть нижней граничной задачей интервальной задачи (5), (6), а задачу (21) - верхней граничной задачей. Итак, для получения решения интервальной задачи (5), (6) нужно решить ее нижнюю (20) и верхнюю (21) граничные задачи. В общем случае решение нижней граничной задачи имеет вид {Мн (х), F1 max}, а верхней граничной задачи - вид
{Мв (хХ F2,max}.
Здесь Мн (х), Мв (х) - множества точек решения х = (х1,..., хп) нижней и верхней граничных задач, а F1,max, Fz,max - полученные максимальные значения целевых функций этих задач. Решение интервальной задачи оптимизации (5), (6) формируется из решений ее нижней и верхней граничных задач и имеет вид
{х* е Мн (х) О Мв (х); Fmax = [F1,max , F2,max] } . (22)
*
Согласно (22), в качестве точки решения х интервальной задачи оптимизации (5), (6) выбирается любая точка из пересечения множеств точек решения ее нижней и верхней граничных задач, а в качестве максимального значения интервальной целевой функции Fmax -интервал от максимального значения целевой функции нижней задачи F1,max до максимального значения целевой функции верхней задачи F2max.
Из выполненного процесса построения решения интервальной задачи условной оптимизации вида (5), (6) и определения макроустойчивости полностью определенной задачи условной оптимизации (3), (4) вытекает следующая основная теорема.
Теорема 5. Для того чтобы полностью определенная задача условной оптимизации (3), (4) была макроустой-чива, необходимо и достаточно, чтобы: 1) эта задача имела решение; 2) интервальная задача оптимизации (5), (6), производная от задачи (3), (4), имела нижнюю и верхнюю граничные задачи, обладающие решениями; 3) множества решений нижней и верхней граничных задач интервальной задачи оптимизации (5), (6) пересекались.
Сформулированная выше теорема 5 определяет следующий алгоритм для проверки произвольной полностью определенной (детерминированной) задачи условной оптимизации, имеющей вид (3), (4), на макроустойчивость:
Шаг 1. Используя подходящие для конкретного типа целевой функции методы решения полностью определенных (детерминированных) задач условной оптимизации [10-12], ищем решение х' = (х1,..., хп) задачи (3), (4). Одновременно с этим проверяется и существование (несуществование) решения этой задачи.
Шаг 2. Задаваясь некоторыми подходящими значениями интервальных параметров целевой функции Р,
функций ограничений Фг-, 1 = 1, т, и правых частей ограничений Ц, I = 1, т полностью определенной задачи условной оптимизации (3), (4), строим производную от нее интервальную задачу условной оптимизации (5), (6).
Шаг 3. Используя формулы интервальной математики (8), выражающие результаты элементарных преобразований интервалов, представляем целевую функцию Р, функции ограничений Ф1,1 = 1, т, а также правые
части ограничений Ц, I = 1, т, интервальной задачи условной оптимизации (5), (6) в интервальной форме (15).
Шаг 4. По найденным на шаге 3 интервальным представлениям функций Р, Ф{, 1 = 1, т, и параметров
Ц, 1 =1, т, формируем нижнюю (20) и верхнюю (21) граничные задачи интервальной задачи оптимизации (5), (6).
Шаг 5. Используя те же самые методы, что и на шаге 1, ищем решения оптимизационных задач (20) и (21). Одновременно с этим проверяем существование или несуществование решений указаных задач. Полные решения задач условной оптимизации вида (20, (21) имеют соответственно вид {Мн ОХ Р1,шах},{мв (х1 Р2,шах}, где М н (х) - множество точек х решения нижней, М в (х) -множество точек х решения верхней граничной задачи.
Шаг 6. Проверяется наличие (отсутствие) пересечения найденных в результате решения задач (20) и (21) множеств М н (х), Мв (х).
Итог. Если в результате работы алгоритма выяснилось, что полностью определенная задача условной оптимизации (3), (4) имеет решение, а производная от нее интервальная задача (5), (6) имеет нижнюю и верхнюю граничные задачи, обладающие решениями, причем множества этих решений пересекаются, то задача оптимизации (3), (4) является макроустойчивой. В противном случае задача (3), (4) не является макроустойчивой.
4 МИКРОУСТОЙЧИВОСТЬ ЗАДАЧИ УСЛОВНОЙ ОПТИМИЗАЦИИ
Снова обратимся к полностью определенной задаче условной оптимизации (3), (4) и опишем метод установления микроустойчивости этой задачи.
Полностью определенная задача условной оптимизации (3), (4) по определению (см. п. 2) является микроустойчивой, если она обладает свойством макроустойчивости и, кроме того, существует пара решений (х', х"), где х' = (х1,..., х'п) - некоторое решение исходной полностью определенной задачи (3), (4), а х" = (х[,..., х'П) - какое-то решение производной от нее интервальной задачи условной оптимизации (5), (6), расстояние между которыми х, х") не превосходит заданной достаточно малой величины ё. Из этого определения напрямую вытекает следующий алгоритм проверки произвольной полностью определенной задачи условной оптимизации вида (3), (4) на микроустойчивость.
Шаг 1. С помощью 6-шагового алгоритма, изложенного в п. 4, проверяем задачу (3), (4) на макроустойчивость. В случае отрицательного результата (задача (3), (4) не макроустойчива) конец алгоритма, с выводом: задача
(3), (4) не является микроустойчивой. При положительном результате проверки (задача (3), (4) макроустойчива) переход к шагу 2.
Шаг 2. Выбираем некоторую произвольную точку решения х' = (х1,..., Хп) задачи (3), (4), найденную на шаге 1. После этого добавляем к ней какую-либо точку решения х" = (х[,..., х'П) соответствующей интервальной задачи (5), (6), также найденную на шаге 1. В результате получаем пару решений (х', х") указанных двух задач.
Шаг 3. Вычисляем величину расстояния х' , х") между точками решения х', х" указанных двух задач, используя для этого формулу
Б(х',х " ) = ^(х1 - х[)2 +... + (хП - х'П)2 . (23)
Шаг 4. Проверяем выполнение неравенства, сравнивающего расстояние Д х', х") с некоторой изначально заданной достаточно малой величиной ё:
Д х, х") < ё. (24)
Если условие (24) выполнено, задача оптимизации (3),
(4) объявляется микроустойчивой и конец алгоритма. В противном случае совершается переход к шагу 2, в котором теперь к точке решения х ' = (х1,..., х'п) задачи (3), (4), найденной на шаге 1, добавляется какая-то другая точка решения х" = (х[,..., х"п) задачи (5), (6) из числа найденных на шаге 1. В результате получаем новую пару решений (х', х") и т. д.
Итог. Если в результате работы алгоритма после некоторого достаточного числа шагов получена пара решений (х', х"), удовлетворяющая неравенству (24), процедура останавливается и задача (3), (4) объявляется микроустойчивой. В противном случае процедура также останавливается, но задача (3), (4) признается не обладающей свойством микроустойчивости.
ЗАКЛЮЧЕНИЕ
В статье показано, что проблема оптимизации неполностью определенных функций не может ограничиться только отысканием точки оптимума и значения в ней нашей функции, но и должна включать в себя задачу опре-
деления устойчивости найденного оптимума. Последнее означает, что при небольшом варьировании параметров оптимизируемой функции ее оптимум должен по-прежнему существовать и находиться в точке, близкой к точке исходного оптимума. Для установления устойчивости оптимума неполностью определенных функций предложена специальная эффективная методика, основанная на аппарате интервальной математики.
СПИСОК ЛИТЕРАТУРЫ
1. Первозванский, А. А. Математические модели в управлении производством / А. А. Первозванский. - М. : Наука, 1975. - 616 с.
2. Левин, В. И. Интервальное дискретное программирование / В. И. Левин // Кибернетика и системный анализ. -1994. - № 6. - С. 91-103.
3. Libura, M. Integer Programming Problems with Inexact Objective Function / M. Libura // Control and Cybernetic. -1980. - Vol. 9, No. 4. - P. 189-202.
4. Тимохин, С. Г. О задачах линейного программирования в условиях неточных данных / С. Г. Тимохин, А. В. Шапкин // Экономика и математические методы. - 1981. - Том 17, № 5. - С. 955-963.
5. Рощин, В. А. Вопросы решения и исследования одного класса задач неточного целочисленного программирования / В. А. Рощин, Н. В. Семенова, И. В. Сергиенко // Кибернетика. - 1989. - № 2. - С. 42-46.
6. Семенова, Н. В. Решение одной задачи обобщенного целочисленного программирования / Н. В. Семенова // Кибернетика. - 1984. - № 5. - С. 25-31.
7. Вощинин, А. П. Оптимизация в условиях неопределенности / А. П. Вощинин, Г. Р. Сотиров. - М. : Изд-во МЭИ, 1989. - 224 с.
8. Левин, В. И. Интервальные методы оптимизации систем в условиях неопределенности / В. И. Левин. - Пенза : изд-во Пензенского технологического института, 1999. - 95 с.
9. Алефельд, Г. Введение в интервальные вычисления / Г. Алефельд, Ю. Херцбергер. - М. : Мир, 1987. - 360 с.
10. Юдин, Д. Б. Задачи и методы линейного программирования / Д. Б. Юдин, Е. Г. Гольдштейн. - М. : Советское радио, 1964. - 350 с.
11. Корбут, А. А. Дискретное программирование / А. А. Кор-бут, Ю. Ю. Финкельштейн. - М. : Наука, 1969. - 280 с.
12. Левин, В. И. Структурно-логические методы исследования сложных систем / В. И. Левин. - М. : Наука, 1987. -304 с.
13. Левин, В. И. Дискретная оптимизация в условиях интервальной неопределенности / В. И. Левин // Автоматика и телемеханика. - 1992. - № 7. - С. 97-106.
Стаття надшшла до редакци 13.08.2013.
Левш В. I.
Д-р техн. наук, професор, Пензенськш державний технолопчний ушверситет, Роая
СТАБШЬШСТЬ ВИР1ШЕННЯ ЗАВДАНЬ ОПТИМАЛЬНОГО ПРОЕКТУВАННЯ СИСТЕМ З 1НТЕРВАЛЬНИМИ ПАРАМЕТРАМИ
Розглянуто задачу оптимiзащI неповнютю певних (недетермшованих) функцш, тобто функцш з параметрами, заданими лише з точнютю до штервалу. Показано, що виршення ще! проблеми потребуе також розгляду завдання визначення стшкосп оптимуму до вартовання значень параметрiв функцй. Пропонуеться метод знаходження оптимуму функцш i визначення його стшкосп методами штервально! математики.
Ключовi слова: оптимiзацiя систем, невизначенють, стшюсть оптимуму, вартовання параметрiв, штервальна математика.
Levin V. I.
Dr. Sci., professor, Penza State Technological University, Russia
THE STABILITY OF SOLUTION OF SYSTEMS WITH UNDEFINED PARAMETERS OPTIMAL DESIGN PROBLEM
Our article considers the problem of optimization of incompletely specified functions, namely, functions which parameters are given within range of possible values. It is shown that solution of this problem also requires solving problem of determining stability of optimum of such functions to variation of values of their parameters. A method for obtaining such optimum of incompletely defined functions is presented. Method uses determination of problem. It allows to split original non-deterministic problem into two optimization problem of deterministic functions, which are solved separately. After that solutions are combined into one which is a solution of original problem. The article also provides a method for determining the stability of the optimum found of incompletely defined functions by methods of interval mathematics. We formulate 5 theorems determining the conditions for existence of optimum of incompletely defined function and its resistance to changing the function parameters. Algorithms for verifying the stability function are given
Keywords: system optimization, uncertainty, stability of optimum, variation of parameters, interval mathematics.
REFERENCES
1. Pervozvanskiy A. A. Matematicheskie modeli v upravlenii proizvodstvom, Moscow, Nauka, 1975, 616 p.
2. Levin V. I. Intervaljnoe diskretnoe programmirovanie, Kibernetika i sistemniy analiz, 1994, No. 6, pp. 91-103.
3. Libura M. Integer Programming Problems with Inexact Objective Function, Control and Cybernetic, 1980, Vol. 9, No. 4, pp. 189-202.
4. Timokhin S. G., Shapkin A. V. O zadachah linejnogo programmirovaniya v usloviyah netochnyh dannyh, Ekonomika i matematicheskie metody, 1981, Vol. 17, No. 5, pp. 955-963.
5. Rothin V. A., Semenova N. V., Sergienko I. V. Voprosy resheniya i issledovaniya odnogo klassa zadach netochnogo celochislennogo programmirovaniya, Kibernetika, 1989, No. 2, pp. 42-46.
6. Semenova N. V. Reshenie odnoy zadachi obobschennogo celochislennogo programmirovaniya, Kibernetika, 1984, No. 5, pp. 25-31.
7. Voschinin A. P., Sotirov G. R. Optimizaciya v usloviyah neopredelennosti, Moscow, Izd-vo MEI, 1989, 224 p.
8. Levin V. I. Intervalnie metody optimizacii sistem v usloviyah neopredelennosti. Penza, Izd-vo Penzenskogo tehnologicheskogo instituta, 1999, 95 p.
9. Alefeld G., Hercberger Yu. Vvedenie v intervalnye vychisleniya. Moscow, Mir, 1987, 360 p.
10. Yudin D. B., Goldshtein E. G. Zadachi i metody linejnogo programmirovaniya. Moscow, Sovetskoe radio, 1964, 350 p.
11. Korbut A. A., Finkelshtein Yu. Yu. Diskretnoe programmirovanie. Moscow, Nauka, 1969, 280 p.
12. Levin V. I. Strukturno-logicheskie metody issledovaniya slozhnyh sistem. Moscow, Nauka, 1987, 304 p.
13. Levin V. I. Diskretnaya optimizaciya v usloviyah intervalnoy neopredelennosti, Avtomatika i telemekhanika, 1992, No. 7, pp. 97-106.