УДК 621.01(07)
ОБЕСПЕЧЕНИЕ ЗАДАННЫХ ПАРАМЕТРОВ КАЧЕСТВА С ИСПОЛЬЗОВАНИЕМ ЭКСПЕРТНЫХ СИСТЕМ И ПРИМЕНЕНИЕМ В НИХ НЕЙРОННЫХ СЕТЕЙ
А.А. Сапожников1, И.Ф. Костяев2, В.С. Потаев3
Братский государственный университет, 665709, г. Братск, ул. Макаренко, 40.
Национальный исследовательский Иркутский государственный технический университет, 664074, г. Иркутск, ул. Лермонтова, 83. 3Забайкальский государственный университет, 672039, г. Чита, ул. Александро-Заводская, 30.
Показана взаимосвязь параметров качества и надёжности функционирования машиностроительного оборудования с различными характеристиками вибросигнала. Рассмотрены несколько базовых задач для нейронных сетей и основных методов настройки сетей для их решения. Решена задача линейной регрессии, состоящая в поиске наилучшего линейного приближения функции, заданной конечным набором значений. Библиогр. 5 назв.
Ключевые слова: параметры качества; вибродиагностика; линейная регрессия; линейная фильтрация; адаптивная обработка сигналов; персептрон Розенблатта; сети Хопфилда; кластер-анализ; сети Кохонена.
ENSURING SPECIFIED QUALITY PARAMETERS BY MEANS OF EXPERT SYSTEMS AND USE OF NEURAL NETWORKS IN THEM
A.A. Sapozhnikov, I.F. Kostyaev, V.S. Potaev
Bratsk State University,
40 Makarenko St., Bratsk, 665709.
National Research Irkutsk State Technical University,
83 Lermontov St., Irkutsk, 664074.
Trans-Baikal State University,
30 Aleksandro-Zavodskaya St., Chita, 672039.
The article demonstrates the correlation of quality and reliability parameters of the engineering equipment with different characteristics of a vibrosignal. It examines several fundamental problems for neural networks and basic methods for network configuration for their solution. The authors solve the problem of linear regression, which consists in finding the best linear approximation of the function specified by the finite set of values. 5 sources.
Key words: quality parameters; vibrodiagnostics; linear regression; linear filtering; signal adaptive processing; Rosenblatt perceptron; Hopfield networks; cluster analysis; Kohonen maps.
В работе [1] показана взаимосвязь параметров качества и надёжности функционирования машиностроительного оборудования с различными характеристиками вибросигнала. При ревизиях механизмов определяются так называемые первичные параметры их состояния: дефекты кинематических узлов, рабочих органов, креплений и т.д. Оценка состояния проводится визуально или с использованием каких-либо инструментальных средств и представляется, в целом, достаточно надёжной, хотя далеко не все, даже важные для технического состояния механизма, первичные параметры (например, динамический дисбаланс ротора) могут быть определены методом ревизии.
Современные экспертные системы оправдывают
себя только когда применяются для определённого класса машин. При этом снижение стоимости такой системы зависит от повышения серийности их выпуска. Второй главной проблемой экспертных систем является рекомендательный характер их диагнозов; на последнем этапе всё равно человек решает, принимать их или нет. В следующие годы ожидается, что эти системы из помощника человека-эксперта превратятся в системы, обходящиеся без его вмешательства.
Одним из путей развития экспертных систем без участия человека является применение в них нейронных сетей. Ниже рассмотрено несколько базовых задач для нейронных сетей и основных или исторически
1 Сапожников Алексей Анатольевич, доктор экономических наук, профессор. Sapozhnikov Aleksei, Doctor of Economics, Professor.
2Костяев Иван Федорович, доктор экономических наук, профессор кафедры экономической теории и финансов, тел.: (395) 242870, e-mail: [email protected]
Kostyaev Ivan, Doctor of Economics, Professor of the Department of Economic Theory and Finance, tel.: (395) 242870, e-mail: [email protected]
3Потаев Виктор Сергеевич, доктор экономических наук, профессор кафедры антикризисного управления, финансов и кредита, тел.: 89021601757, e-mail: [email protected]
Potaev Victor, Doctor of Economics, Professor of the Department of Crisis Management, Finance and Credit, tel.: 89021601757, e-mail: [email protected]
первых методов настройки сетей для их решения:
- классификация (с учителем) (персептрон Розен-блатта[1-3]);
- ассоциативная память (сети Хопфилда [3]);
- решение систем линейных уравнений (сети Хопфилда [4]);
- восстановление пробелов в данных (сети Хоп-филда[4]);
- кластер-анализ и классификация (без учителя) (сети Кохонена [3-5]).
Даже системы из одного адаптивного сумматора находят очень широкое применение. Вычисление линейных функций необходимо во многих задачах. Вот неполный перечень «специальностей» адаптивного сумматора:
- линейная регрессия и восстановление простейших закономерностей [1];
- линейная фильтрация и адаптивная обработка сигналов [5];
- линейное разделение классов и простейшие задачи распознавания образов [3].
Задача линейной регрессии состоит в поиске наилучшего линейного приближения функции, заданной конечным набором значений: дана выборка значений вектора аргументов х1 , ..., хт, заданы значения функции F в этих точках: Р{Х)=11, требуется найти линейную (неоднородную) функцию ф(х)=(а,х)+а0, ближайшую к F. Чтобы однозначно поставить задачу, необходимо доопределить, что значит «ближайшую». Наиболее популярен метод наименьших квадратов, согласно которому ищется из условия
£(F(x') - <P(X ))2 ^ min.
(1)
i= 1
Необходимо подчеркнуть, что метод наименьших квадратов не является ни единственным, ни наилучшим во всех отношениях способом доопределения задачи регрессии. Его главное достоинство - квадра-тичность минимизируемого критерия и линейность получаемых уравнений на коэффициенты р.
Явные формулы линейной регрессии легко получить, минимизируя квадратичный критерий качества регрессии. Обозначим
4- = (F(xi) -p(xi)); H =
m m
= £4 = £ (F(X) -P(x1))2 =
i=1 m
i=1
= £ (it - (a,x )-a0) . i=1
Найдём производные минимизируемой функции H по настраиваемым параметрам:
дН
да;
m дН m
= £4xj, (j = i,...n); — = £4
i=1
да
0 i=1
где х ] -у-я координата вектора х.
Приравнивая частные производные Н нулю, получаем уравнения, из которых легко найти все ау (у=0,...,п). Решение удобно записать в общем виде,
если для всех /=1, ..., т обозначить х'0 = 1 и рассмат-
ривать л+1-мерные векторы данных х и коэффициентов а. Тогда
4 = fj - (a,x'), дН / да j =
m
= £4xj (j = 0,1,...,n). i=1
Обозначим p л+1-мерный вектор с координатами
1 m
Pj = — £ fx) ; Q - матрицу размером (л+1)х(л+1) с
mi=1
1
m
элементами qík = — £х)хк .
т 1=1
В новых обозначениях решение задачи линейной регрессии имеет вид:
ф(х)=(а,х), а=0~^р. (2)
Приведём это решение в традиционных обозначениях математической статистики. Обозначим М0 среднее значение ]-й координаты векторов исходной выборки:
1 т
М) = - £х).
т1=1
Пусть М - вектор с координатами М0. Введём также обозначение Бу для выборочного среднеквадратичного отклонения:
Sj = J—£(xj -Mj)2. vmi=1
Величины Бу задают естественный масштаб для измерения у-х координат векторов х. Кроме того, нам потребуются величина Б/^ и коэффициенты корреляции 1 с у-ми координатами векторов х - гу
1 m 7
Sf = J - £ (fr - Mf)2,Mf = V m i=1
1m
im 1 £ (fi - Mf)(x'j - Mj)
1 m m i =1
m i=1 SfSj
Вернёмся к п-мерным векторам данных и коэффициентов. Представим, что векторы сигналов проходят предобработку - центрирование и нормировку, и далее мы имеем дело с векторами У:
У) =
x) - Mj
Это, в частности, означает, что все рассматриваемые координаты вектора х имеют ненулевую дисперсию, т.е. постоянные координаты исключаются из рассмотрения - они не несут полезной информации. Уравнения регрессии будем искать в форме: ф(У)=(Р,У)+Р0. Получим
Ро=Мл Р=51^"1«1, (3)
где - вектор коэффициентов корреляции 1 с у-ми координатами векторов х, имеющий координаты гу Я -
m
m
s
матрица коэффициентов корреляции между координатами вектора данных:
(4п+1)2 = (fm+1 -(a,xm+1))2 - квадрата ошибки
на
1 m
rkj=^-=1 mdj
sksj m j=1
В задачах обработки данных почти всегда возникает вопрос о последовательном уточнении результатов по мере поступления новых данных (обработка данных «на лету»). Существует, как минимум, два подхода к ответу на этот вопрос для задачи линейной регрессии. Первый подход состоит в том, что изменения в коэффициентах регрессии при поступлении новых данных рассматриваются как малые, и в их вычислении ограничиваются первыми порядками теории возмущений. При втором подходе для каждого нового вектора данных делается шаг изменений коэффициентов, уменьшающий ошибку регрессии А2 на вновь поступившем векторе данных. При этом «предыдущий опыт» фиксируется только в текущих коэффициентах регрессии.
В рамках первого подхода рассмотрим, как будет изменяться а из формулы (2) при добавлении нового вектора данных. В первом порядке теории возмущений найдём изменение вектора коэффициента а при изменении вектора р и матрицы
а + Аа= (№ + А())~1(р + Ар);
(№+А())-1 = (1 + 0 ~1аО)-1 =
= 0-1 - 0~1А0(0~1 + о(А(0); ->-1
Аа = Q~( Ap - AQa).
Пусть на выборке
вычислены p, Q, Q~
При получении нового вектора данных хт+1 и соответствующего значения F(xm+1)=fm+1 имеем:
Ар=т+](/т+1хт+1 - р);
= т+г^т+1хт+1 - я*) х
X (ШЬ. = т+г1(хт+1 ® (хт+1)Т) ); (4)
А(0= - -(0~1Хп+1) ® (0~1хт+1 )Т); Аа= т+14++10 ~1хт+1,
где Ап+2 = /т+2 -(а,хт+1) - ошибка на векторе данных хт+1 регрессионной зависимости, полученной на основании выборки {х1 т.
Пересчитывая по приведённым формулам р, 0, 0" и а после каждого получения данных, имеем процесс, в котором последовательно уточняются уравнения линейной регрессии. И требуемый объём памяти, и количество операций имеют порядок п2 ввиду необходимости накапливать и модифицировать матрицу 0"1. Конечно, это меньше, чем потребуется на обычное обращение матрицы 0 на каждом шаге, однако, следующий простой алгоритм ещё экономнее. Он вовсе не обращается к матрицам 0, 0"1 и основан на уменьшении на каждом шаге величины
,,m+1
векторе данных х регрессионной зависимости, полученной на основании выборки {х1 т.
Вновь обратимся к формуле (2) и будем рассматривать п+1-мерные векторы данных и коэффициентов.
Обозначим Тогда
x = x
m+1
A = 4n+1 = fm+1 - (a,xm+1) .
gradaA = -Ax x.
(5)
Последняя элементарная формула, формула Уидроу, важна в теории адаптивных сумматоров. «Обучение» адаптивного сумматора методом наискорейшего спуска состоит в изменении вектора коэффи-
2
циентов а в направлении антиградиента A : на каждом шаге к а добавляется hxAxx, где h - величина шага.
Если при каждом поступлении нового вектора данных x изменять а указанным образом, то получим последовательную процедуру построения линейной аппроксимации функции F(x). Такой алгоритм обучения легко реализуется аппаратными средствами (изменение веса связи а есть произведение прошедшего по ней сигнала Xj на ошибку A и на величину шага). Возникает, однако, проблема сходимости: если h слишком мало, то сходимость будет медленной, если же слишком велико, то произойдёт потеря устойчивости и сходимости не будет вовсе.
Задача чёткого разделения двух классов по обучающей выборке ставится так: имеется два набора векторов - x1, ..., xm и у1, ..., у". Заранее известно, что X относится к первому классу, а У - ко второму. Требуется построить решающее правило, то есть определить такую функцию f(x), что при f(x)>0 вектор x относится к первому классу, а при f(x)<0 - ко второму.
Координаты классифицируемых векторов представляют собой значения некоторых признаков (свойств) исследуемых объектов. Эта задача возникает во многих случаях: при вибродиагностике и определении неисправностей машин по косвенным признакам, при распознавании изображений и сигналов и т.п. Строго говоря, классифицируются не векторы свойств, а объекты, которые обладают этими свойствами. Это замечание становится важным в тех случаях, когда возникают затруднения с построением решающего правила, например, тогда, когда встречаются принадлежащие к разным классам объекты, имеющие одинаковые признаки. В этих случаях возможно несколько решений:
1) искать дополнительные признаки, позволяющие разделить классы;
2) примириться с неизбежностью ошибок, назначить за каждый тип ошибок свой штраф (c12 - штраф за то, что объект первого класса отнесён ко второму; c21 - за то, что объект второго класса отнесён к первому) и строить разделяющее правило так, чтобы минимизировать математическое ожидание штрафа;
3) перейти к нечёткому разделению классов -строить так называемые «функции принадлежности» f1(x) и f2(x) - когда функция f(x) оценивает степень уверенности при отнесении объекта к i-му классу (/=1,
2), то есть для одного и того же х может быть так, что и 11(х)>0, и 12(х)>0.
Линейное разделение классов состоит в построении линейного решающего правила, то есть такого вектора а и числа а0 (называемого порогом), что при (х,а)>а0 х относится к первому классу, а при (х, а)<а0 -ко второму. Поиск такого решающего правила можно рассматривать как разделение классов в проекции на прямую. Вектор а задаёт прямую, на которую ортогонально проектируются все точки, а число а0 - точку на этой прямой, отделяющую первый класс от второго.
Простейший и подчас очень удобный выбор состоит в проектировании на прямую, соединяющую центры масс выборок. Центр масс вычисляется в предположении, что массы всех точек одинаковы и равны 1. Это соответствует заданию а в виде
а= (у1 + у2+...+ут)/т -(х1+ х2+... + х п)/п. (6) Во многих случаях удобнее иметь дело с векторами единичной длины. Нормируя а, получаем:
a= ((y1+ y2+...+ym)/m -(x1 + x2+...+ x»/||(y1 + y2+...+ym)/m -(x + x2+... + xn)/n||.
+ х +...+:
Выбор а0 может производиться из различных соображений. Простейший вариант - посередине между центрами масс выборок:
а0=(((у1+ у2+...+ут)/т,а)+((х1+ х2+...+ х п)/п,а))/2.
Более тонкие способы построения границы раздела классов а0 учитывают различные вероятности появления объектов разных классов и оценки плотности распределения точек классов на прямой. Чем меньше вероятность появления данного класса, тем более граница раздела приближается к центру тяжести соответствующей выборки.
Итерационный алгоритм решения системы чрезвычайно прост. Он основан на том, что для любого вектора х его скалярный квадрат (х, х) больше нуля. Пусть а - некоторый вектор, претендующий на роль решения неравенств (г',а)>0 (/=1, ..., п+т), однако, часть из них не выполняется. Прибавим те г', для которых неравенства имеют неверный знак, к вектору а и вновь проверим все неравенства (г',а)>0 и т.д. Если они совместны, то процесс сходится за конечное число шагов. Более того, добавление г' к а можно производить сразу после того, как ошибка ((г',а)<0) обнаружена, не дожидаясь проверки всех неравенств. И этот вариант алгоритма тоже сходится [2].
Библиографический список
1. Ackley D.H. A connectionist machine for genetic hillclimbing. Boston, MA: Kluwer Academic Publishers, 1987.
2. Belew R.K., Mclnerney J., Schraudolph N.N. Evolving networks: Using genetic algorithms with connectionist learning. CSE technical report CS90-174. La Jolla, CA: University of California at San Diego, 1990.
3. Caudell T.P. Genetic algorithms as a tool for the analysis of adaptive resonance theory neural network sets, Proceedings of
International Workshop on Combinations of Genetic Algorithms and Neural Networks. COGANN-92, 1992. Р. 184-200.
4. Goldberg D.E. Algorytmy genetyczne i ich zastosowania. Warszawa. WNT, 1995.
5. Лонцих П.А., Шулешко А.Н., Марцынковский Д.А. Управление качеством. Прогнозирование, риск-менеджмент, оптимизация: монография. Изд-во Lambert Academic Publishing (Германия), 2011. 301 с.
УДК 330.332
УПРАВЛЕНИЕ СТОИМОСТЬЮ УНИКАЛЬНОГО ОБЪЕКТА НЕДВИЖИМОСТИ НА СТАДИИ ЭКСПЛУАТАЦИИ
В.И. Сидоренко1
Национальный исследовательский Иркутский государственный технический университет, 664074, г. Иркутск, ул. Лермонтова, 83.
Приведены результаты исследования наиболее эффективного варианта использования физкультурно-оздоровительного комплекса на стадии эксплуатации. Рассмотрены факторы, позволяющие повысить не только инвестиционную привлекательность, но и существенно увеличить его рыночную стоимость. Предложены и экономически обоснованы два способа управления уникальным объектом недвижимости. Ил. 1. Табл. 4. Библиогр. 5 назв.
Ключевые слова: уникальный объект недвижимости; эксплуатация; жизненный цикл; инвестиционная привлекательность; доверительное управление.
UNIQUE REAL PROPERTY COST MANAGEMENT AT THE STAGE OF OPERATION V.I. Sidorenko
National Research Irkutsk State Technical University, 83 Lermontov St., Irkutsk, 664074.
The article provides the study results of the most efficient option to use sports and recreation complex at the stage of
1 Сидоренко Виктор Иванович, доктор экономических наук, профессор кафедры экспертизы и управления недвижимостью, тел.: (3952) 405412, e-mail: [email protected]
Sidorenko Victor, Doctor of Economics, Professor of the Department of Real Estate Expertise and Management, tel.: (3952) 405412, e-mail: [email protected]