распознавания образов в пространстве параметров центров анализируемых множеств и традиционные классификаторы множеств случайных величин, определенные в условиях неоднозначных решений. Вычислительная эффективность предложенных методов повышается с сокращением области пересечения классов.
Литература
1. Непараметрические системы классификации / А.В. Лапко [и др.]. - Новосибирск: Наука, 2000. - 240 с.
2. Лапко, А.В. Непараметрические методики анализа множеств случайных величин / А.В. Лапко, В.А. Лапко // Автометрия. - 2003. - №1. - С. 54-61.
УДК 519.7 В.А. Лапко, Р.В. Бадмаев
СИНТЕЗ И АНАЛИЗ НЕЛИНЕЙНЫХ НЕПАРАМЕТРИЧЕСКИХ КОЛЛЕКТИВОВ РЕШАЮЩИХ ПРАВИЛ В ЗАДАЧАХ ВОССТАНОВЛЕНИЯ СТОХАСТИЧЕСКИХ ЗАВИСИМОСТЕЙ, ОСНОВАННЫХ ПОСЛЕДОВАТЕЛЬНЫХ ПРОЦЕДУРАХ ФОРМИРОВАНИЯ РЕШЕНИЙ*
Рассматриваются нелинейные непараметрические коллективы решающих правил в задачах восстановления стохастических зависимостей, обеспечивающих эффективное решения задач при малых выборках большой размерности. С помощью метода вычислительного эксперимента исследуются показатели эффективности нелинейных непараметрических коллективов. Полученные результаты сравниваются с традиционными непараметрическими решающими правилами.
Введение. Последовательные процедуры принятия решений являются эффективным направлением обхода проблем сложности и неопределенности при моделировании и оптимизации систем, что достигается путем разбиения исходной задачи на ряд взаимосвязанных более простых задач [1]. Такая схема используется, например, в методе динамического программирования и методе группового учета аргументов (МГУА) [2-7].
Работа посвящена синтезу и анализу нелинейных непараметрических коллективов решающих правил восстановления стохастических зависимостей для решения задач в пространствах большой размерности и малых объемах обучающих выборок. Идея предлагаемого алгоритма заключается в декомпозиции исходной задачи на ряд простых, решаемых в пространствах меньшей размерности. Основной проблемой при построении подобных систем принятия решений является выбор их эффективной структуры. Для решения данной проблемы предлагается индуктивный метод выбора рациональной структуры системы, основанный на принципах имитационного моделирования [8].
Синтез нелинейных непараметрических коллективов решающих правил. Пусть дана выборка
V = (у, уг,1 = 1,п) из статистически независимых наблюдений значений у1 неизвестной однозначной зависимости
у = (р(х) V х е Як (1)
и ее аргументов х1, где х = (х1, Х2) - вектор.
Эффективным подходом «обхода» проблемы малых выборок являются последовательные процедуры формирования решений, основанные на принципе декомпозиции исходной задачи.
Идея предлагаемого алгоритма состоит в построении семейства локальных решающих правил на основании конечных наборов признаков х = (х(/), ^ = 1,т) обучающей выборки и последующей их интеграции в едином нелинейном решающем правиле. Тогда при восстановлении искомой стохастической зависимости (1) предлагаются нелинейные непараметрические коллективы решающих правил с последователь-
* Работа выполнена в рамках гранта Президента РФ №МД-2130.2005.9.
ной (1) и параллельной (2) структурой
У] = 9] (•(ЛУ]-1) > ] =1,т.
У = Ну1 =П (х(і)) > ■■■’уш =Фт (•х(ш)))
(2)
(3)
Оценивание преобразований (1) и (2) на каждом этапе предлагается осуществлять с помощью непараметрической регрессии [9]
п ( _ ^
Еу П ф
1=1 уех(])
У] = 9] (х(])):
ху - ху
I Пф
і=1 уєх(] )
Л ’
(4)
•у - ху
где ф
..і л
ху ху
ядерная функция, удовлетворяющая условиям положительности, симметрично-
сти и нормированности [10].
Преимущества предлагаемой процедуры по сравнению с моделями типа «черный ящик» состоит в возможности учета априорных сведений о структуре, взаимосвязи между признаками вектора х и обходе проблем малых выборок за счет последовательного снижения размерности задачи.
Структуры последовательного и параллельного непараметрического коллектива восстановления многомерной стохастической зависимости приведены на рисунках 1 и 2.
Рис. 1. Нелинейный непараметрический коллектив решающих правил (1) с последовательной структурой
Рис. 2. Нелинейный непараметрический коллектив решающих правил (1) с параллельной структурой
с
V
с
V
Выбор числа групп признаков т , а также их сочетание в группах может производиться исследователем, в зависимости от специфики решаемой задачи, либо с использованием индуктивного алгоритма выбора рациональной структуры.
Алгоритм разбиения исходного набора признаков на группы в непараметрическом коллективе с последовательной структурой (рис. 1). В условиях отсутствия априорной информации о взаимосвязи переменных в исследуемой зависимости задача разбиения исходного набора признаков на группы сводится к перебору всех возможных комбинаций, выбору из них наиболее адекватного разбиения, с точки зрения какого-либо критерия. Но данный подход не годится для практического применения, так как уже при 7 признаках число требующих проверки комбинаций возрастает настолько, что их полный перебор требует неприемлемо большого времени счета. Поэтому предлагается алгоритм разбиения исходного набора признаков на т групп, основанный на принципах имитационного моделирования.
Основная идея алгоритма заключается в уменьшении числа перебираемых вариантов построения системы, за счет использования информации, полученной на предыдущих итерациях. В матрице Ш(к : к) запоминается оценка математического ожидания ошибки каждой пары признаков для структур, в которых эта пара находилась на одном этапе. На каждой итерации проверяется одна структура. Разбиение признаков на группы происходит случайным образом, согласно вероятностям, вычисляемым из весов матрицы Ш, с учетом условия нормировки. Для выбора перестановки полученных групп в алгоритме с последовательной структурой ведется матрица Ш (к;т). Элемент (1; у) этой матрицы является оценкой математического ожидания ошибки структур, в которых 1 -й признак находился на у -м этапе. Для выбора перестановки для каждой группы рассчитывается среднее арифметическое элементов Ш , группы сортируются по полученным весам.
Пусть имеется неизвестная многомерная стохастическая зависимость у = (р(х) V х е Як, которая аппроксимируется последовательным алгоритмом (1), у = р(х(!), х(2),■■■, х(т)). Необходимо выбрать оптимальное (или близкое к нему) разбиение с точки зрения критерия я(т, х(1), х(2),■, х(т)).
Зафиксируем т = т0, тогда задача сводится к разбиению исходного набора признаков на фиксированное число групп. Для этого воспользуемся следующим алгоритмом.
1. Устанавливаем веса всех пар признаков Ш (/, у) и веса признаков на этапах (/, у) равными нулю:
Ш (1, у) = 0 1 = 1..к, у = 1..к, 1 ^ у
Ш (1, у) = 0 1 = 1..к, у = 1..т
Устанавливаем количество попаданий признаков на один этап N (1,у), а количество попаданий каждого признака на у -й этап N1 (1,у) равными нулю:
N (1, у) = 0 1 = 1..к, у = 1..к, 1 ^ у
N (i, j) = 0 i = 1k, j = 1m .
2. Обнуляем счетчики повторений структур и неудачных опытов: Repeat = 0, Lost = 0.
3. Вычисляем вероятности появления пар признаков:
2
p(l’j) = it,—если N(i’j) = 0 k (k -1)
P(i’j) =4 'in---------------^—г если N (i’j) > 0 ' =1 k j =1 k ' *j
k (k -1) W C’j)]L ±
V=1 W V
где N(i,j) - число появлений i -го и j -го признаков вместе на предыдущих итерациях; l - число пар, для которых N (i,j) > 0.
4. Случайным образом, в соответствии с вероятностями p{i,j), выбираем пару признаков i и j .
5. Если ни один из выбранных признаков не участвует в модели, добавляем новую группу в генерируемую модель, помещаем на него оба выбранных признака и обнуляем вероятность появления данной пары. Если после этого число этапов модели достигло т , устанавливаем в нуль вероятности появления всех
пар, в которых оба признака отсутствуют в текущей модели.
Если же один из признаков (допустим 1 -й) уже присутствует в модели на s-м этапе, добавляем второй признак (у -й) на я -й этап. Обнуляем вероятности появления всех пар, включающих у -й признак, и признаки, находящиеся в s-й группе:
j
p(J,t]) = 0; j = \.ks ,
где I^ - номер у -го признака, находящегося на я -м этапе, кя - число признаков, находящихся на
я -м этапе. Увеличиваем кя на единицу.
6. Если число неиспользованных признаков больше числа неиспользованных групп и больше нуля,
к к
Е Ер(1, у) =1
пересчитываем вероятности появления пар, в соответствии с условием
1=1 j=i+1
р(1, у) = кР!'"у— ’1=1к• у=1к•1 * у Е Ер(1, у)
1 =1 у=2+1
и повторяем с шага 4.
7. Заполняем оставшиеся группы неиспользованными признаками (по одному признаку на группу).
8. Выбираем перестановку созданных групп. Для этого вычисляем вероятности попадания каждого признака на этапы
Р1 (1, ]) = — если N1 (г, у) = 0 т
’.(М) = —-------1-^-если N,0-,у) > 0 < = ^ У = ^ •
т *«■ лЕШг
v=1 п 1 V
где N- (1,у) - число попаданий 1 -го признака на у -й этап на предыдущих итерациях; >1 () - число этапов, на которые попадал 1 -й признак на предыдущих итерациях.
9. Устанавливаем £ = 1.
10. Определяем вероятности попадания на у -й этап текущей £ -й группы как среднее арифметическое вероятностей попадания на у -й уровень всех признаков, находящихся в текущей £ -й группе:
1
kS
p1(S*j) = — XPi(t]*j), j =1m■
kS i=1
11. Выбираем случайным образом, в соответствии с вероятностями pi(S,j) j 1m, номер этапа Js, на котором будет находиться S -я группа.
Обнуляем вероятности попадания на Js-й этап всех признаков:
Pj (i, J) = 0, i = 1.k .
12. Если S < m , пересчитываем вероятности P1 (i,j) в соответствии с условием
m ____
X P1(i, j) = 1, i = 1k ,
j=1
P1 (i, j) = j) > i = 1k , j = 1.m ■
XXP1(i’j)
j=1
Увеличиваем S на единицу и повторяем с шага 10.
13. Расставляем этапы модели в соответствие номерам Js .
Если полученная структура уже проверялась, увеличиваем счетчик повторений на единицу Repeat += 1 и идем на шаг 18.
14. Обнуляем счетчик повторений Repeat = 0 и вычисляем ошибку восстановления W при полученной структуре.
15. Пересчитываем веса пар признаков:
N (i, j) = N (i, j) +1
w (i, j) = N(i;j).1 w (i, j) + 1
N (1, у) ™ N (1, у)
если 1 -й и у -й признаки находятся на одном этапе.
16. Пересчитываем веса признаков на этапах:
N-(1, у) = N-(1, у) +1 ^(и)=^(':у) Г Ус, у) + 1
W, i = 1.k , j = 1.k, i j
W, i = 1.k, j = 1.m,
Nl(i, j) 14Nl(i, j)
если i -й признак находится на j -м этапе.
17. Если ошибка восстановления W не меньше лучшей из ранее проверенных структур, увеличиваем число неудачных опытов на единицу Lost += 1. Иначе обнуляем счетчик неудачных опытов Lost = 0 и запоминаем полученную структуру как лучшую.
18. Если число повторений либо число неудачных опытов больше максимально допустимого заканчиваем процедуру, выбираем лучшую из проверенных структур. Иначе повторяем с шага 3.
Принципиальная схема данного алгоритма представлена на рисунке 3,а. Выбор количества последовательных этапов модели предлагается проводить перебором по всем возможным значениям m (от 2 до к).
^ Начало ^
^ Начало ^
Рис. 3. Алгоритмы формирования рациональной структуры нелинейных непараметрических коллективов решающих правил, основанные на принципах имитационного моделирования: а - для последовательной структуры; б - для параллельной структуры
а
Алгоритм разбиения исходного набора признаков на группы в непараметрическом коллективе с параллельной структурой (см. рис. 2). Задача разбиения исходных признаков на группы в методе восстановления стохастической зависимости с параллельной структурой принципиально мало отличается от аналогичной задачи в методе с последовательной структурой. Единственным существенным отличием ее является независимость метода от порядка следования групп. В связи с этим предлагаемый алгоритм решения этой задачи практически повторяет предложенный выше алгоритм.
Схема предложенных алгоритмов выбора рациональной структуры непараметрических коллективов представлена на рисунке 3.
Результаты исследования многоэтапных непараметрических методов восстановления стохастических зависимостей с помощью метода вычислительного эксперимента. Для оценивания показателей эффективности предлагаемых алгоритмов были проведены вычислительные эксперименты, в которых вычислялись два вида ошибок (5), (6) с помощью метода скользящего экзамена и на контрольных выборках для трех алгоритмов: многоэтапные с последовательной и параллельной структурой, а также для многомерной непараметрической регрессии.
В качестве искомой зависимости (1) использовались полиномы третьей степени. При формировании
исходной выборки V = (х1 ,yi, 1 = 1, п) значения функции зашумлялись аддитивной помехой
у1 = р(х1 )(1 + 2г(£-0.5))= у01 + 2^' - 0.5)) ^,
где у0 = ср(х) - моделируемая зависимость; г - уровень «шума»; у0 = ^(х1) - незашумленный сигнал; £ - случайная, равномерно распределенная величина в диапазоне [0, 1]; 2г (£- 0,5) - белый шум с уровнем г .
Во всех вычислительных экспериментах вычислялось два вида ошибок:
1. Ошибка аппроксимации - расхождение восстанавливаемой модели с экспериментальными данными (элементами выборки)
®=П е у- Ах1 )Г (5>
1=1
2. Реальная ошибка - расхождение восстанавливаемой модели с незашумленным полиномом уо =р(х), который использовался для генерации выборки
в = - Е (у0 - у(ху' I)2. (6)
п у=1
Вычислительный эксперимент при фиксированных условиях исследования осуществлялся N = 10 раз, полученные результаты усреднялись.
Проведенные исследования показывают, что при малых объемах выборок нелинейные непараметрические коллективы решающих правил значительно превосходят по качеству восстановления искомой зависимости (1) традиционные непараметрические решающие правила. При этом алгоритм с последовательной структурой оказался более эффективен даже при больших объемах выборки.
В результате исследования зависимости показателей эффективности непараметрических коллективов от размерности пространства признаков установлено, что целесообразность их применения возникает в задачах с пятью и более признаками (к > 5). При этом наблюдается достоверное преимущество нелинейных непараметрических коллективов как с последовательной, так и параллельной структурой над традици-
онной многомерной непараметрической регрессией. По данным вычислительного эксперимента, последовательную структуру (см. рис.1) лучше использовать при размерности пространства признаков от пяти до семи включительно. В задачах большей размерности лучшие результаты показывает алгоритм с параллельной структурой (см. рис. 2).
а - ошибка аппроксимации
б - реальная ошибка
Рис. 4. Зависимость показателей эффективности моделей от объема выборки при к = 7 и г = 20%. Кривая 1 соответствует многомерной непараметрической регрессии; кривая 2 - нелинейному непараметрическому коллективу с последовательной структурой (рис.1);
кривая 3 - с параллельной структурой (рис. 2)
а
б
800
'00
600
>00
400
300
200
100
\
і/ \
2
/ / 3
/
1
10 11 12 13
а - измеренная ошибка
б - реальная ошибка
Рис. 5. Зависимость показателей эффективности моделей от размерности пространства при п = 100 и г = 20%: кривая 1 соответствует многомерной непараметрической регрессии; кривая 2 - нелинейному непараметрическому коллективу с последовательной структурой (рис.1);
кривая 3 - с параллельной структурой (рис. 2)
а
б
а - измеренная ошибка
б-реальная ошибка
Рис. 6. Зависимость показателей эффективности моделей от уровня шума при к = 7 и п = 100: кривая 1 соответствует многомерной непараметрической регрессии; кривая 2 - нелинейному непараметрическому коллективу с последовательной структурой (рис.1); кривая 3 - с параллельной структурой (рис. 2)
Заключение. В результате проведенных вычислительных экспериментов можно сделать выводы, что предлагаемые нелинейные непараметрические коллективы решающих правил в задачах восстановления стохастических зависимостей обладают наилучшими показателями эффективности по сравнению с традиционной непараметрической регрессией. Особенно высокую эффективность они показывают при малых
объемах выборки и большой размерности. Можно выделить области эффективности рассматриваемых непараметрических моделей. Так, использование алгоритма с последовательной структурой (см. рис.1) наиболее эффективно в задачах с числом признаков от пяти до семи. Использование алгоритмов с параллельной структурой (см. рис. 2) наиболее эффективно в задачах с размерностью выше семи и малых объемах обучающей выборки.
Литература
1. Лапко, ВА Непараметрические коллективы решающих правил / В.А Лапко. - Новосибирск: Наука, 2002. - 168 с.
2. Ивахненко, А.Г. Долгосрочное прогнозирование и управление сложными объектами / А.Г. Ивахненко. -Киев: Техника, 1975. - 312 с.
3. Ивахненко, А.Г. Помехоустойчивость моделирования / А.Г. Ивахненко, В.С. Степашко. - Киев: Наук. думка, 1985. - 216 с.
4. Ивахненко, А. Г. Индуктивный метод самоорганизации моделей сложных систем / А.Г. Ивахненко. - Киев: Наук. думка, 1981. - 296 с.
5. Ивахненко, А.Г. Самоорганизация прогнозирующих моделей / А.Г. Ивахненко, Й.А. Мюйлер. - Киев: Техника, 1985. - 219 с.
6. Степашко, В.С. Теоретические основы МГУА как метода индуктивного моделирования / В.С. Степашко // Сб. докл. на I-й Междунар. конф. по индуктивному моделированию. 20-25 мая 2002 г. - Львов.
7. Васильев, В.И. Принцип внешнего дополнения в методах группового учета аргументов и методе предельных упрощений / В.И. Васильев, Т.И. Ланге // Сб. докл. на I-й Междунар. конф. по индуктивному моделированию. 20-25 мая 2002 г. - Львов.
8. Лапко, А.В. Имитационные модели неопределенных систем / А.В. Лапко. - Новосибирск: Наука, 1993. -112 с.
9. Хардле, В. Прикладная непараметрическая регрессия / В. Хардле. - М.: Мир, 1993. - 349 с.
10. Лапко, А.В. Непараметрические системы классификации / А.В. Лапко [и др.]. - Новосибирск: Наука, 2000. - 240 с.
УДК 66.048.5:665.3 МЛ. Коновалов
МАССОПЕРЕНОС ПРИ ДИСТИЛЛЯЦИИ В БАРБОТАЖНОМ СЛОЕ
Получена аналитическая зависимость коэффициента насыщения паровой фазы от параметров процесса при дистилляции в токе водяного пара в барботажном слое. Исследовано влияние различных факторов на коэффициенты насыщения. Выявлены критерии относительно высокого и относительно низкого насыщения паровой фазы в виде безразмерных параметров процесса. Представлены графические зависимости коэффициентов насыщения паровой фазы от различных переменных. Графические зависимости могут быть использованы для анализа и расчета процессов дистилляции в токе водяного пара.
Дистилляция в барботажном слое в токе водяного пара используется в аппаратах периодического действия, в комбинированных аппаратах непрерывного действия, включающих кубовую зону, в аппаратах тарельчатого типа. Таким образом, изучение закономерностей, присущих дистилляции в барботажном, слое весьма актуально.
Для изучения закономерностей массопереноса в данном случае весьма важной величиной является коэффициент насыщения паровой фазы переходящим компонентом (компонентами). При известном коэффициенте насыщения характеристики массопереноса могут быть рассчитаны на основе уравнений материального баланса и фазового равновесия.
Известные соотношения для коэффициентов насыщения при дистилляции в слое [1, 2, 4] получены путем интегрирования уравнения массопередачи. При этом равновесная концентрация считается постоянной по высоте слоя жидкости. Это не позволяет учесть фактор переменности гидростатического давления в барботажном слое.