Научная статья на тему 'Классификация искусственных нейронных сетей'

Классификация искусственных нейронных сетей Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
2231
347
i Надоели баннеры? Вы всегда можете отключить рекламу.

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Чичков Борис Анатольевич, Раков Павел Игоревич

В статье приводится классификация нейронных сетей и предлагается для решения задач идентификации использовать рекуррентные сети, а сети с обучением по методу обратного распространения ошибок - для задачи прогнозирования.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Классификация искусственных нейронных сетей»

2005 НАУЧНЫЙ ВЕСТНИК МГТУ ГА № 85

серия Эксплуатация воздушного транспорта и ремонт авиационной техники. Безопасность полетов

УДК 629.7

КЛАССИФИКАЦИЯ ИСКУССТВЕННЫХ НЕЙРОННЫХ СЕТЕЙ

П.И. РАКОВ, Б.А. ЧИЧКОВ

В статье приводится классификация нейронных сетей и предлагается для решения задач идентификации использовать рекуррентные сети, а сети с обучением по методу обратного распространения ошибок - для задачи прогнозирования.

Для решения задач идентификации и прогнозирования технического состояния в процессе эксплуатации авиационной техники (АТ) могут быть использованы искусственные нейронные сети (ИНС) или, просто, нейронные сети (НС) различного рода.

Для реализации с максимальным эффектом функций НС, как правило, существует оптимальная совокупность параметров НС. Следовательно, одной из основных задач, стоящих перед разработчиком НС, является выбор этой совокупности, определяющей, в конечном итоге, вид сети.

Основным элементом сети является искусственный нейрон (далее нейрон). Нейроны делятся на три типа (рис. 1) в соответствии с функциями, выполняемыми ими в сети. Входные нейроны (нейроны входного слоя) принимают данные из внешней среды и определенным образом распределяют их далее по сети. На промежуточные нейроны (нейроны скрытого слоя) возлагается роль основных участников процесса решения задачи. Выходные же нейроны (нейроны выходного слоя) передают результаты работы сети во внешнюю среду (потребителю).

Рис. 1. Типы нейронов в зависимости от их функций в сети

В зависимости от механизма обработки получаемых данных можно выделить целый ряд математических моделей нейронов (см. рис. 2). Существует две группы моделей нейронов, которые принадлежат, соответственно, двум типам сетей: классическим и нечетким. Каждая из моделей нейронов обладает рядом присущих ей свойств, однако имеются и общие черты, к которым можно отнести наличие входного и выходного сигналов, а также блока их обработки. Для решения конкретной задачи существует ряд наиболее предпочтительных моделей нейронов. Модель нейрона МакКаллока-Питса, сигмоидальный нейрон и нейрон типа “адалайн” имеют схожие структуры и отличаются лишь видами функций активации (реакции нейрона на входящий сигнал). Вышеприведенные модели нейронов могут обучаться только с учителем, то есть требуют наличия входного и выходного векторов (значений). Так как функция активации нейрона МакКаллока-Питса дискретна (выходной сигнал может принимать только два значения

- 0 или 1), то невозможно проследить за изменением значения выхода. Достижение необходимого результата в некоторых задачах может оказаться невозможным. В этом случае более предпочтительной может являться сигмоидальная модель нейрона. Модели нейронов типа “инстар” и “оутстар Гроссберга” дополняют друг друга и отличаются от вышеуказанных трех типов нейронов тем, что могут обучаться и без учителя (имея только входной вектор).

Рис. 2. Виды математических моделей нейронов

Нейроны типа WTA (от англ. -“победитель получает всё”) чаще всего используются в задачах классификации и распознавания данных и образов. Они, как и модели нейронов Гроссберга, в процессе обучения также не нуждаются в учителе. Однако существенным недостатком нейронов этого типа является значительно возрастающая погрешность распознавания данных вследствие наличия мертвых нейронов, которые не смогли выжить в конкурентной борьбе. Модель нейрона Хебба схожа с моделью нейрона обычной формы (вход - блок обработки - выход). Может обучаться как с учителем, так и без него. Особенностью данной модели является то, что вес связи нейрона изменяется пропорционально произведению его входного и выходного сигналов. В стохастической модели выходное значение нейрона зависит еще и от некоторой случайной переменной, лежащей в интервале (0,1), что позволяет при подборе весов снизить до минимума среднеквадратичную погрешность. Модели нейронов нечетких сетей применяются главным образом для аппроксимации с произвольной точностью любой нелинейной функции многих переменных и используются там, где входные данные ненадежны и слабо формализованы.

Одна и та же модель нейрона в разных сетях может иметь разные функции активации (рис. 3).

Функции активации нейронов

Полулинейная /// Логистическая (сигмоидальная) Модульная

С инусоидальная Квадратичная / /II \\\ \ Сигмоидальная (рациональная) \ \ \ Пороговая

г 1 \ \ Гиперболический тангенс (сигмоидальная)

Экспоненциальная

Знаковая (сигнатурная)

Шаговая (линейная с насыщением)

Нетождественная

Рис. 3. Функции активации нейронов

Однако это высказывание справедливо не для всех типов нейронов. Так, например, персеп-трон может иметь только пороговую функцию активации (функция единичного скачка). Несмотря на все многообразие функций активации, наиболее распространенной является нелинейная функция активации с насыщением (сигмоидальная функция). Необходимо так же отметить, что нейроны входного слоя имеют тождественные функции активации, что позволяет им распределять полученные сигналы нейронам скрытого слоя без изменений.

Cовокупности нейронов образуют нейронные сети. НС различаются по архитектуре (рис. 4), по типу входящих в нее нейронов (см. рис. 5), по типу обрабатываемых ею сигналов (см. рис. 6), по типу смены состояния нейронов в момент времени (см. рис. 7). НС различаются так же топологией (см. рис. 8-10). Отметим, что статическими и динамическими НС являются однонаправленные и рекуррентные НС соответственно. Одним из отрицательных качеств динамических НС является их возможная неустойчивость при работе.

Однородность НС (использование однотипных нейронов с единой функцией активации) в различных задачах по-разному влияет на производительность и скорость обучения НС.

Рис. 4. Обобщенная классификация нейронных сетей с точки зрения их архитектуры

Рис. 5. Классификация нейронных сетей по типу входящих в нее нейронов

Рис. 6. Классификация нейронных сетей по типу обрабатываемых сигналов

Рис. 7. Классификация нейронных сетей по типу смены состояния в момент времени

Рис. 8. Топология (архитектура) нейронных сетей

Синхронность НС означает, что в каждый момент времени только один нейрон меняет свое состояние. Асинхронность подразумевает смену состояний у целого ряда нейронов (чаще всего

- слоя). На практике большее предпочтение отдается синхронным НС.

Многослойные (слоистые) нейронные сети

Монотонные 1 г Без обратных связей С обратными связями |

Полносвязанные

| Рекуррентные сети |

Частично полносвязанные

Рециркуляционные

сети

Слоисто-циклические

Слоисто-полносвязанные

► Полносвязанно-слоистые

Частично-рекуррентные

1 г 1 г

8ЯК (сеть Элмана) Сеть Джордана

Рис. 9. Многослойные (слоистые) нейронные сети

Весьма обширна и топология (архитектура) НС, что говорит о довольно узкой направленности каждого типа НС для оптимального решения определенного круга задач. Однако для решения сложных задач наибольший интерес представляют многослойные однонаправленные (без обратных связей) и рекуррентные НС.

Для выполнения сетью поставленной задачи ее необходимо обучить, то есть сообщить ей, каким образом она должна действовать, чтобы выдать разработчику желаемый результат. Стратегии обучения нейронных сетей представлены на рис. 11. Особенностью обучения с учителем (обучение под надзором) является то, что наряду с входным вектором (значения элементов входа) априори известен и выходной вектор (соответствующие входам значения элементов выхода). Если значения выхода НС заранее не известны, то необходимо воспользоваться другой стратегией - обучение без учителя. Тогда подбор весовых коэффициентов (в этом и заключается суть обучения) осуществляется по соответствующим стратегиям обучения с использованием определенных алгоритмов (рис. 12).

Ошибка!.

Типы решеток расположения нейронов в слабосвязных нейронных сетях

Прямоугольные

Г ексагональные

Связи с 4 нейронами

Окрестность фон Неймана

Связи с 8 нейронами ¥

Связи с 6 нейронами

Окрестность Мура

Окрестность Г олея

Рис. 10. Используемые типы решеток расположения нейронов в слабосвязных нейронных сетях

Рис. 11. Применяемые стратегии обучения нейронных сетей

Стратегия обучения с учителем (алгоритм обратного распространения ошибок) представляет собой итеративный градиентный алгоритм обучения.

Рис. 12. Существующие алгоритмы обучения нейронных сетей

Для задач аппроксимации представляется целесообразным использование многослойной НС прямого распространения, либо нечеткой НС.

Для задач идентификации состояний авиационной техники представляется целесообразным рассмотреть также возможность применения рекуррентных НС и НС с обучением по методу обратного распространения ошибок для решения задачи прогнозирования изменения параметров АТ.

ЛИТЕРАТУРА

1. Круглов В.В., Борисов В.В. Искусственные нейронные сети. Теория и практика.-М.: Горячая линия - Телеком, 2002.

2. Осовский С. Нейронные сети для обработки информации. - М.: Финансы и статистика, 2004.

3. Калан Р. Основные концепции нейронных сетей. -М.: дом “Вильямс”, 2003.

4. Терехов В.А., Ефимов Д.В., Тюкин И.Ю. Нейронные сети управления. - М.: Высшая школа, 2002.

CATEGORIZATION ARTTFICIAL NEURAL NETWORKS

Rakov P.I., Chichkov B.A.

In the article happens to a categorization neural networks and is offerred for deciding the problems to identifications to use recurrence networks and network with educating on the method of inverse spreading the mistakes for the problem of forecasting.

Сведения об авторах

Чичков Борис Анатольевич, 1969 г.р., окончил МИИ ГА (1993), доктор технических наук, профессор кафедры двигателей летательных аппаратов МГТУ ГА, автор более 30 научных работ и ряда программных средств для ПЭВМ, область научных интересов- модели систем, параметрическая диагностика авиационных двигателей в эксплуатации.

Раков Павел Игоревич, 1981 г.р., окончил МГТУ ГА (2004), аспирант кафедры двигателей летательных аппаратов МГТУ ГА, область научных интересов - диагностика авиационных двигателей по регистрируемым параметрам.

i Надоели баннеры? Вы всегда можете отключить рекламу.