УДК 519.72
НЕЙРОСЕТЕВОЙ ПОДХОД К ОТБОРУ НАИБОЛЕЕ ИНФОРМАТИВНЫХ ПРИЗНАКОВ ДЛЯ ФУНКЦИОНАЛЬНОГО ДИАГНОСТИРОВАНИЯ ЖРД
Я.Е. Львович, И.Л. Каширина, А.А. Шостак
В статье рассматривается нейросетевой подхок к решению задачи оценки информативности и отбора входных признаков аварийных ситуаций при построении системы функционального контроля и диагностирования жидкостных ракетных двигателей
Ключевые слова: система функционального контроля и диагностирования, жидкостный ракетный двигателель, репликативная нейронная сеть
На этапе построения системы функционального контроля и диагностирования (АСФКД) жидкостных ракетных двигателей (ЖРД) необходимо выбрать вид и количество вторичных признаков неисправных состояний двигателя, которые останутся точно такими же и на этапе диагностирования и будут формироваться на измеренных сигналах конкретного неисправного двигателя. Заранее можно указать множество признаков различных видов. Однако до сих пор не существует формальных правил, позволяющих сразу, до построения АСФКД ОВ и исследования ее информационных свойств, выбрать наилучшие. Выполнить полный перебор всех различающихся по виду и количеству признаков, построить на основе каждого сочетания признаков (определенного количества признаков определенного вида и типа) АСФКД ОВ, исследовать их информационные свойства, затем сравнить между собой все АСФКД ОВ и выбрать для практического применения ту из них, в которой признаки наиболее информативны — задача, которая невыполнима даже на современных ЭВМ.
Важнейшим критерием "ценности" признаков является их информативность, так как именно информативность выбранных для применения в АСФКД ОВ признаков в сочетании с решающим правилом определяют в значительной степени качество диагностирования.
До настоящего времени отсутствует формальная постановка задачи отбора информативных признаков. В неформальных постановках эта задача предполагает уменьшение до минимума количества необходимых для описания классов признаков без существенного увеличения вероятности ошибки распознавания аварийной ситуации. Иначе говоря, необходим поиск компромисса между избыточностью входной информации и точностью распознавания.
Практика анализа реальных аварийных ситуаций показывает, что объекты (аварийные ситуации) не заполняют равномерно все п- мерное признаковое пространство, а располагаются, как правило, на некоторой поверхности, имеющей невысокую раз-
Львович Яков Евсеевич - ВГТУ, д-р техн. наук, профессор, тел. (473) 220-56-28
Каширина Ирина Леонидовна - ВГУ, канд. техн. наук, доцент, тел. 8 903 653 92 93, e-mail: [email protected] Шостак Александр Александрович - ВГТУ, аспирант, e-mail: [email protected]
мерность. Это означает, что существуют такие "обобщенные" признаки (комбинации исходных признаков), которые наиболее точно характеризуют все исходные объекты.
В общем случае нас интересует нелинейное преобразование
у = ПХ), F:Я" ^Ят ,
(т < п, п -количество всех возможных признаков, т - количество отобранных информативных признаков), сохраняющее максимальное количество информации о распределении входных данных и являющееся наиболее сжатым представлением этих данных.
Весьма перспективными для решения задачи оценки информативности и отбора входных признаков являются нейронные сети (НС), которые способны извлекать знания из данных. Одним из подходов к понижению размерности входов является использование нелинейных автоассоциативных сетей. В общем случае они содержат три скрытых слоя нейронов. Средний слой - так называемое —узкое горло”, в результате обучения выдает сжатое представление входных данных (вектор Y). Первый скрытый слой нейронов используется для осуществления нелинейного кодирования, а последний - для нахождения соответствующего декодера (рис 2.).
Рис. 1. Понижение размерности с помощью авто-ассоциативных сетей
Идея алгоритма обучения подобных сетей заключается в следующем.
Пусть на наборе ^мерных данных обучается т линейных нейронов. Выходное значение каждого из этих нейронов вычисляется по формуле:
п
у, =Е™ух] *1 =1т j=l
Мы хотим, чтобы значения у были набором независимых индикаторов, максимально полно отражающих информацию о многомерном входе сети.
С этой целью, логично было бы предложить правило, по которому значения входов восстанавливаются по всей выходной информации. Такое правило обучения называется правилом Ойа, согласно которому весовые коеффициенты сети изменяются следующим образом:
,+1 ^ I А ,
у + Ам у , где
т
] = ЩУ,(х] - ~ ) = а{у\ (х) - Xу[мк )
к=1
Таким образом, сеть с узким горлом из скрытых линейных нейронов, обучается воспроизводить на выходе значения своих входов. При этом скрытый слой такой сети осуществляет оптимальное кодирование входных данных, и содержит максимально возможное при данных ограничениях количество информации.
Однако, для подобных целей существуют и хорошо известные алгоритмы стандартного статистического анализа. В частности, статистический анализ главных компонент также выделяет основные признаки, осуществляя оптимальное линейное сжатие информации. Более того, можно показать, что сжатие информации нейронной сетью, обучаемой по правилу Ойа эквивалентно анализу главных компонент .
Однако преимущество нейроалгоритмов в том, что они легко обобщаются на случай нелинейного сжатия информации, когда анализ главных компонент уже не работает. Если заменить линейные нейроны в описанных выше сетях нелинейными, то с минимальными изменениями нейроалгоритмы будут работать и в этом случае, находя оптимальное сжатие информации при наложенных нами ограничениях. Таким образом, нейроалгоритмы представляют собой удобный инструмент нелинейного анализа, позволяющий относительно легко находить способы сжатия информации и выделения нетривиальных (информативных) признаков и их значимых нелинейных комбинаций. Даже простая замена линейной функции активации нейронов на логистическую:
п
у, = 1/(1 + ехр(-^ Му ху )),, = 1.т
]=1
в приведенном выше правиле обучения приводит к новому качеству выделения информативных признаков.
Наглядной демонстрацией полезности нелинейного анализа главных компонент является следующий простой пример (см рис.2)
Таким образом, можно отметить, что автоассоциа-тивная нейронная сеть способна сама не только отбирать наиболее информативные признаки, но и находить их значимые нелинейные соотношения, то есть так называемые сложные количественные признаки - одномерные аналоги совокупности простых количественных признаков.
a)
Ь)
Рис. 2. Статистический анализ главных компонент определит линейное подпространство данных (а). Он не способен, в отличие от нейронной сети, выявить одномерный характер распределения данных в случае (Ь)
Например, если измеряются секундные расходы окислителя (Оа) и горючего (Ог) через двигатель, давление в камере сгорания(рк), и исходными вторичными признаками являются значения измеренных в некоторый момент времени параметров Оак, Сгк ирк (где индекс "к" - расход окислителя в камеру сгорания), то известно, что в качестве обобщенного признака можно рассматривать расходный комплекс
Рк
Рк =
где ^ - величина критического сечения камеры
сгорания. В силу высоких апроксимационных возможностей семейства логистических функций [3] эта и другие зависимости могут быть определены в ходе обучения автоассоциативной сети. Значимость входных признаков будет определяться после завершения процесса обучения путем анализа модулей полученных весовых коеффициентов сети.
Однако открытым остается вопрос о количестве нейронов в скрытом слое нейронной сети (рис 1). Число нейронов в —узком горле” должно совпадать с предполагаемой истинной размерностью входных данных (т). Эту размерность можно оценить, используя следующий подход.
Рассмотрим большое количество входных векторов, и упорядочим их по возрастанию евклидова расстояния до некоторой фиксированной точки из этого набора. Такое упорядочение данных позволяет оценить размерность многообразия вблизи зафиксированной точки. Возьмем первые к векторов из упорядоченного набора, рассмотрим гауссовский ковариационный эллипсоид и определим количество не слишком коротких осей эллипсоида. Эту величину назовем локальной размерностью и нарисуем график ее зависимости от числа к. Обычно этот график линейно возрастает при увеличении к, но при некотором его значении наклон графика резко уменьшается и на графике образуется «колено». Соответствующую величину к будем рассматривать как аппроксимацию размерности в окрестности выбранной точки. Повторяя описанную процедуру определения локальной размерности для других точек, находим оценку размерности многообразия данных т, как наибольшее из значений локальной размерности. Найденная размерность т используется в качестве размерности системы естественных координат.
Как уже было отмечено, задачей автоассо-
циативных нейронных сетей является воспроизведение на выходе сети значений своих входов. Вторая половина сети - декодер - при этом опирается лишь на кодированную информацию в узком горле сети.
Авто ассоциативная нейронная сеть называется репликативной, если нейроны выходного слоя в ней являются линейными с тождественной функцией
ей активации х; = и^у , а качестве активаци-
к=1
онной функции нейронов первого слоя используется любая сигмоидальная функция (например, используемая выше логистическая:
П
у, = Щ + ехрС-^м’уХ,)),; = 1.
j=l
Активационная функция нейронов среднего слоя репликативной сети имеет специальный ступенчатый вид [2]:
г ®=1+чЪт) !Нк (*-1)'
2
где s- входная сумма нейрона среднего слоя, Ь и к -параметры, определяюшие, соответственно, количество ступеней активационной функции и степень их крутизны. На рис.3 приведен вид графика такой функции с параметрами L=4 и к=100.
На основе этой структуры нейронной сети Хехт-Нильсен доказал теорему об оптимальном сжатии данных для произвольных входных векторов.
Показано, что в процессе обучения адаптивной репликативной нейронной сети можно построить систему так называемых «естественных» координат, которая соответствует данным, использованным для обучения. При этом оказывается, что в результате перехода к системе «естественных» координат происходит не только значительное сокращение размерности входных данных задачи, но и фильтрация шума, который мог присутствовать в исходных дан-
Рис. 3. Вид графика активационной функции нейронов среднего слоя репликативной сети
Литература
1. Ежов А.А., Шумский С.А. Нейрокомпьютинг и его приложения в экономике и бизнесе. - М.:МИФИ, 1998. - 224с.
2. Hecht-Nielsen R. Replicator neural networks for universal optimal source coding. Science, v. 269, pp.1860-1863, 1995.
3. Hecht-Nielsen R. Kolmogorov's mapping neural network existence theorem. In: Proceedings Int Conf on Neural Networks, IEEE Press, vol 3, New York, pp 11-13, 1989.
Воронежский государственный технический университет Воронежский государственный университет
NEURAL NETWORK APPROACH TO SELECTION OF THE MOST INFORMATIVE FEATURES FOR FUNCTIONAL DIAGNOSIS OF LRE
J.E. Lvovich, I.L. Kashirina, A.A. Shostak
In the article the neural network to solve the problem podhok informative evaluation and selection of input features in the construction of emergency system functional monitoring and diagnosis of liquid rocket engines
Key words: Functional monitoring and diagnostics, liquid rocket enginel, replicative neural network
21