УДК 681.03
A. M. НАМЕСТНИКОВ, А. Э. РАХМАТУЛИН, Н. Г. САПЕГИН
НЕЙРОКОМПЬЮТИНГ КАК СРЕДСТВО ИЗВЛЕЧЕНИЯ ЗНАНИЙ
Рассмотрены принципы извлечения знаний с использованием методологии нейрокомпьютинга. Приведена структура нечеткой нейронной сети. Показаны примеры практического использования нейронных сетей в процессе извлечения знаний дм экспертных систем, задач поиска информации в 1тете1. Предложен подход Д|1# построения функций принадлежностей, используемых в задачах оценки трафика ЛВС.
ВВЕДЕНИЕ
При построении систем, основанных на знании, важной задачей являем и определение набора правил, который наиболее адекватным обра и«м описывает текущую проблемную область. Сама задача формализации знимиМ не является тривиальной. В первую очередь это связано с тем, что носитот Ы таких знаний является человек - высококвалифицированный специален i • данной проблемной области. Извлечение знании путем проведения диа.кАЦ между экспертом и инженером знаний представляет собой и< < • U0 трудоемкий процесс, так как в данном случае к участникам такого дн'им^ предъявляют ряд требований (для эксперта - это высокая квалифммнн# способность четко излагать ход своих мыслей, общительность и др.. й инженера знаний — хорошая память, высокие аналитические снопам» ff наличие знаний в области психологии). В связи с этим возникаем создания таких способов формализации экспертных знаний, при и' нцЯЯ участие человека было бы минимальным. Одним из возможных пни <
А» I
решения является использование методологии нейрокомпьютинга
ОСОБЕННОСТИ AJU"ОРИТМОВ ОБУЧЕНИЯ leAjjyilW)\ I» 1ЫI
НЕЙРОННЫХ СЕТЕЙ
В данном разделе рассматриваются только те нейрон ими щ
г/пт/ч«\гт/\ ^т тгтт» плллпт плгюттг г ттгго гтлт50Я01ШСТ ОТГЛПАКНиХДР!П'() 11 rwiUjJDiv Д^^л »l 111, '
типа нейронш>1х сетей: НС с алгоритмом обучения с умин им в 4 алгоритмом обучения без учителя. Практически были • следующие представители вышеназванных типов НС: в качи » МП I многослойная сеть с применением в качестве обучающею |Я обратного распространения ошибки и в качестве второю «и ч•• . Кохонеяа Î2L Н
Особенностью алгоритма обратного распространении шнмОлн
* а *
формула подстройки весов на этапе обучения
и,
где для выходного слоя нейронов
сЗэ!
а для других слоев нейронов
6<п) =
I
5(п+1)^(п+1)
_ к
¿У]
(3)
Из формулы (2) видно, что для обучения такой нейронной сети необходима выборка данных, в которой были бы явно указаны желаемые ныходные значения нейронной сети.
Алгоритм Кохонена предусматривает подстройку синапсов на основании их значений от предыдущей итерации
у
1л
(п-1)
-и-0-1)]
(4)
Эти изменения производятся для нейрона (или группы нейронов в
некотором радиусе), значения синапсов которого (которых) максимально
похожи на входной образ, и подстройка весов по формуле (4) проводится шлько для него (для них).
Из вышеприведенной формулы (4) видно, что обучение сводится к Минимизации разницы между входными сигналами нейрона, поступающими
* иыходов нейронов предыдущего слоя у/1^1^ и весовыми коэффициентами По синапсов.
. I проиллюстрировать процесс извлечения знаний из данных с помощью
диционных НС можно на основе анализа динамики изменения ритмических показателей [1].
11редлодожим, что у эксперта-аудитора есть данные о конкретных «ипшях какого-либо показателя за определенный промежуток времени и . надо оценить тенденцию изменения этого показателя (например, сказать,
• показатель растет с течением времени). В таком случае он, опираясь па (»!•'• полученный опыт, делает вывод о характере поведения показателя. Б и п схеме наглядно виден процесс извлечения знаний из данных. Но по
•иной же схеме работает и нейронная сеть. Как показали эксперименты, читая ПС с высокой точностью определяет тенденции экономических гелей, т. е. на этапе обучения происходит процесс извлечения знаний
• думающей выборки и накопления его в виде весов связей между »ними (синапсами). Таким образом, можно утверждать, что НС является
[румсптом извлечения знаний из данных.
РУКТУРА НЕЧЕТКОЙ НЕЙРОННОЙ СЕТИ
^ "1кой нейронной сетью (ННС) называется традиционная НС, иная на основе многослойной архитектуры с использованием «И-», Ш'Ироиов». ННС функционирует стандартным образом на основе
■•I 1У. 2/99
четких действительных чисел. Нечеткой является только интерпретация результатов.
И- и ИЛИ-нейроны отличаются от обыкновенных изменением функции активации, реализации операций сложения и умножения, так как в нечеткой логике сложение моделируется любой KQ-НОРМОЙ (max, a+b-a*b), а операция умножения НОРМОЙ (min, a*b,...).
И-нейроном (AND-нейроном) называется нейрон^ в котором умножет веса на вход моделируется любой КО-НОРМОЙ S(w,x), а сложение НОРМОЙT(w,x) (рисунок 1). Пример: (mm(max(wl,xl),max(wl,xl)))
Y=T(S(wl,xl).S(w2,x2
Рис. 1
ИЛИ-нейроном (ОЯ-нейроном) называется нейрон, в котором умножс.....
веса на вход моделируется НОРМОЙ Т(а^х), а сложение взвешенных весим
КО-НОРМОЙ Б^х): У=8(Т(\у1, х1),Т(ж2,х2)). Прим-г
(гnax(min(wIJx1)^mjn(w2,x2)))
ИСПО/ХЬЗОВАНЙЕ МЕТОДОЛОГИЙ ШЙРОКОМПЪЮТШП А
В РЕШЕНИИ ПРАКТИЧЕСКИХ ЗАДАЧ
Пример использования нейронных сетей в проекти|>ом*«Н
СТЕНДОВОГО оборудований Щ
Рассмотрим задачу конструирования стендового технож )1 и• м• ♦ оборудования (СТО), в частности, задачу выбора типоразмера корну* **
М А««. Л ¿ГАП.* «V. А А« «ЧА УГАЛГИА/ЛТ^ТЛтПП Л Л ЛЛУС» Г ГЛ. -» ГГ/Л Г<11ПП> -ЛЛТГ I • I •
ра^рсхиа 1 ывасшлл и у^х.рилч/юа. ошдишю рл/д, цриимпи!д и | »• »»#
таких как определение площади передней панели, определение тшм ми)»м| I выделение из множества альтернатив рациональных типоразмером г*ч |3|. Для решения каждой из этих подзадач требуется свой ниОпр ни который может быть получен с помощью НС.. I1
Обучающая выборка представляет собой множество строк, < | входные и выходные переменные. Каждая строка содержим < м< и одном стенде. Эксперименты по извлечению правил нршм'нмим процедур определения площадей передних панелей и для опрпк 1 корпусов. Л
Минимальная площадь передней панели согласно устами и'мм111 ней элементам определяется по следующей формуле: Ш
п
п _ /\
°эмкк ~~ I 7
Ч У !-
i •
1=1
О ^
лусг s ^^надп.^"1* ^mf ^зпи >
>
где п — количество элементов, устанавливаемых на передней панели;
п
£SyCT- суммарная установочная площадь элементов на передней панели;
i=I
°(^надп.) "" оценка суммарной площади надписей на передней панели; Sm -площадь шильдика заводского номера; кзпп - коэффициент заполнения передней панели (кзпп = const).
Оценка суммарной площади надписей определяется следующим образом:
0(SHaOT) = £sycT .kd, ' (6)
где kd - вспомогательный коэффициент оценки.
Таким образом, для определения площади передней панели необходим набор правил, который устанавливает соответствия между некоторыми входными переменными (устанавливаемыми на передней панели элементами) и значением коэффициента kd.
Анализ архива проектных решений позволил выделить в качестве иходных переменных, влияющих на значение коэффициента kd, следующие
параметры: количество тумблеров, количество элементов со шкалами;
Количество стрелочных индикаторов.
Задача определения типа корпуса сводится к выбору одного из трех и шов: корпус со скошенной передней панелью, корпус с шасси и корпус без шасси. В качестве выходной переменной используется переменная «пмбрашшй тип корпуса», принимающая свои значения на отрезке [0,1], причем «0» соответствует типу корпуса со скошенной передней панелью, иО S» — типу корпуса без шасси, «1» — типу корпуса с шасси.
Инструментом для эксперимента служил программный пакет FUNGEN I, который представляет собой один из вариантов нечеткой нейронной ni. 11одготовка эксперимента включала следующие этапы: определение структуры строки обучающей выборки; формирование лингвистических переменных и соответствующих ИКЦий принадлежностей;
ус тановку параметров ННС на размеры конкретного эксперимента, • иювки параметров режимов обучения и настройки функции
Тинидлежностей.
IViyjibTaTOM эксперимента является редуцированная ННС, в которой ним правила, слабо влияющие на конечный результат. В результате •гния ННС, кроме отбора правил, происходит настройка функций
мцдлсжностей.
1 исгсма поиска в INTERNET на базе использования нейронных И
Примерная схема поискового сервера по сети Internet приведена на рис. 2 .
V ni ТУ. 2/99
109
t—
ип
Н......
»у*■ ■ ■ • •••
СИ
I
г
Поисковый г~.......
сервер
Нейронная сеть
и о * Jj W tl URL
Временная БД URL
^_ Выходные потоки информации
-----------> Входные потоки информации
ЮТ - Интерфейс пользователя СИ - Служебный интерфейс
Рис.2
В такой схеме НС функционирует в двух качествах: как средство выбор!» информации из баз данных и как средство для внесения новой информации и соответствующие базы данных. Это становится возможным в резульпи» обучения нейронной сети словарю синонимов ключевых слов. В качес ми одного из вариантов представления обучающей выборки можно предложим такой, когда обучающая выборка состоит из набора структур следующим типа: <ключевое слово> Nb N2, ... , Nm, где Nk - номер группы синонимом, и
я
которую данное слово входит. Такой подход дает возможность получим, и»« выходах НС номера (по номерам активизировавшихся нейронов тшхощмнм слоя) групп синонимов, к которым принадлежит поданное на входной • им#
НС слово. ' Д
Функционирование НС в процессе поиска URL по ключевым < -иним сводится к определению номеров индексных таблиц, в которых чрммии1 ссылки на основную базу URL, содержащих ключевое слово и м» щN синоним. Далее вступают в действие традиционные алгоритмы по ш.мм!|||| Ц выводу конечному пользователю результатов поиска. Сходным oßpuidlj № используется и для внесения новых URL в базу данных. В эюм * '» ш помощью традиционных алгоритмов забирается ияфо{ >ммн ии
рассматриваемому адресу и разбивается на отдельные слова, .......г4 *
подаются на входы НС, в результате чего формируется миссии ><••• индексных таблиц, в которые, после занесения в основную !«/'! информации о новой URL, добавляется ссылка на соответствуют , ■<• БД URL. JH
ЗАКЛЮЧЕНИЕ
На основе результатов использования НС можно сдс ит м целесообразности применения рассматриваемой методологии им •• круга практических задач. Следует отметить высокую эффек I мшим
испиилими&л;шп; а ту оада^ал, лъчирс^ хрил^лд д^Ь ил
1_ м
ЪЫ^я^КикЬалпштд,припаг1по1л опаагт п иракипи ишии!,
110
Ми •ми!
СПИСОК ЛИТЕРАТУРЫ
1. Рахматулин А.Э. Современные методы нейрокомьютинга в экономическом анализе / Тез. докл. третьей Междунар. конф. студентов и аспирантов им. Л.В. Канторовича «Предпринимательство и реформы в России». Ч 1. СПб.: Издательство С.-Петербургского университета, 1997.
2. Ярушкина Н.Г., Рахматулин А.Э., Глебов С.С. Исследование эффективности методов нейроинформатики для анализа тенденций / Тр. междунар. НТК «Нейронные, реляторные и непрерывнологические сети и модели». Т.1. Ульяновск: УлГТУ, 1998.
3. Мактас М.Я., Наместников A.M., Сапегин Н.Г., Ярушкина Н.Г. «Применение нечетких моделей в экспертных системах САПР стендового оборудования» / Тр. шестой нац. конф. по искусственному интеллекту КИИ'98 с международным участием. Сборник научных трудов в 3 т. T.L Пущино, ¡998.
Наместников Алексей Михайлович, окончил радиотехнический факультет УлГТУ. Аспирант УлГТУ. Имеет публикации в области экспертных систем.
Рахматулин Андрей Эньварович, окончил факультет информационных систем и технологий УлГТУ. Инженер кафедры информационных систем УлГТУ. Имеет публикации в области информационных технологий.
Сапегин Николай Геннадъеаич, окончил факультет информационных систем ц технологий УлГТУ. Инженер кафеОры информационных систем УлГТУ. Имеет публикации в области информационных технологии.
limb УлГГУ. 2/99
111