Научная статья на тему 'Нейрокомпьютинг как средство извлечения знаний'

Нейрокомпьютинг как средство извлечения знаний Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
141
15
i Надоели баннеры? Вы всегда можете отключить рекламу.

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Наместников Алексей Михайлович, Рахматулин Андрей Эньварович, Сапегин Николай Геннадьевич

Рассмотрены принципы извлечения знаний с использованием методологии нейрокомпьютинга. Приведена структура нечеткой нейронной сети. Показаны примеры практического использования нейронных сетей в процессе извлечения знаний дли экспертных систем, задач поиска информации в Internet. Предложен подход для построения функций принадлежностей, используемых в задачах оценки трафика ЛВС.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Наместников Алексей Михайлович, Рахматулин Андрей Эньварович, Сапегин Николай Геннадьевич

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Нейрокомпьютинг как средство извлечения знаний»

УДК 681.03

A. M. НАМЕСТНИКОВ, А. Э. РАХМАТУЛИН, Н. Г. САПЕГИН

НЕЙРОКОМПЬЮТИНГ КАК СРЕДСТВО ИЗВЛЕЧЕНИЯ ЗНАНИЙ

Рассмотрены принципы извлечения знаний с использованием методологии нейрокомпьютинга. Приведена структура нечеткой нейронной сети. Показаны примеры практического использования нейронных сетей в процессе извлечения знаний дм экспертных систем, задач поиска информации в 1тете1. Предложен подход Д|1# построения функций принадлежностей, используемых в задачах оценки трафика ЛВС.

ВВЕДЕНИЕ

При построении систем, основанных на знании, важной задачей являем и определение набора правил, который наиболее адекватным обра и«м описывает текущую проблемную область. Сама задача формализации знимиМ не является тривиальной. В первую очередь это связано с тем, что носитот Ы таких знаний является человек - высококвалифицированный специален i • данной проблемной области. Извлечение знании путем проведения диа.кАЦ между экспертом и инженером знаний представляет собой и< < • U0 трудоемкий процесс, так как в данном случае к участникам такого дн'им^ предъявляют ряд требований (для эксперта - это высокая квалифммнн# способность четко излагать ход своих мыслей, общительность и др.. й инженера знаний — хорошая память, высокие аналитические снопам» ff наличие знаний в области психологии). В связи с этим возникаем создания таких способов формализации экспертных знаний, при и' нцЯЯ участие человека было бы минимальным. Одним из возможных пни <

А» I

решения является использование методологии нейрокомпьютинга

ОСОБЕННОСТИ AJU"ОРИТМОВ ОБУЧЕНИЯ leAjjyilW)\ I» 1ЫI

НЕЙРОННЫХ СЕТЕЙ

В данном разделе рассматриваются только те нейрон ими щ

г/пт/ч«\гт/\ ^т тгтт» плллпт плгюттг г ттгго гтлт50Я01ШСТ ОТГЛПАКНиХДР!П'() 11 rwiUjJDiv Д^^л »l 111, '

типа нейронш>1х сетей: НС с алгоритмом обучения с умин им в 4 алгоритмом обучения без учителя. Практически были • следующие представители вышеназванных типов НС: в качи » МП I многослойная сеть с применением в качестве обучающею |Я обратного распространения ошибки и в качестве второю «и ч•• . Кохонеяа Î2L Н

Особенностью алгоритма обратного распространении шнмОлн

* а *

формула подстройки весов на этапе обучения

и,

где для выходного слоя нейронов

сЗэ!

а для других слоев нейронов

6<п) =

I

5(п+1)^(п+1)

_ к

¿У]

(3)

Из формулы (2) видно, что для обучения такой нейронной сети необходима выборка данных, в которой были бы явно указаны желаемые ныходные значения нейронной сети.

Алгоритм Кохонена предусматривает подстройку синапсов на основании их значений от предыдущей итерации

у

(п-1)

-и-0-1)]

(4)

Эти изменения производятся для нейрона (или группы нейронов в

некотором радиусе), значения синапсов которого (которых) максимально

похожи на входной образ, и подстройка весов по формуле (4) проводится шлько для него (для них).

Из вышеприведенной формулы (4) видно, что обучение сводится к Минимизации разницы между входными сигналами нейрона, поступающими

* иыходов нейронов предыдущего слоя у/1^1^ и весовыми коэффициентами По синапсов.

. I проиллюстрировать процесс извлечения знаний из данных с помощью

диционных НС можно на основе анализа динамики изменения ритмических показателей [1].

11редлодожим, что у эксперта-аудитора есть данные о конкретных «ипшях какого-либо показателя за определенный промежуток времени и . надо оценить тенденцию изменения этого показателя (например, сказать,

• показатель растет с течением времени). В таком случае он, опираясь па (»!•'• полученный опыт, делает вывод о характере поведения показателя. Б и п схеме наглядно виден процесс извлечения знаний из данных. Но по

•иной же схеме работает и нейронная сеть. Как показали эксперименты, читая ПС с высокой точностью определяет тенденции экономических гелей, т. е. на этапе обучения происходит процесс извлечения знаний

• думающей выборки и накопления его в виде весов связей между »ними (синапсами). Таким образом, можно утверждать, что НС является

[румсптом извлечения знаний из данных.

РУКТУРА НЕЧЕТКОЙ НЕЙРОННОЙ СЕТИ

^ "1кой нейронной сетью (ННС) называется традиционная НС, иная на основе многослойной архитектуры с использованием «И-», Ш'Ироиов». ННС функционирует стандартным образом на основе

■•I 1У. 2/99

четких действительных чисел. Нечеткой является только интерпретация результатов.

И- и ИЛИ-нейроны отличаются от обыкновенных изменением функции активации, реализации операций сложения и умножения, так как в нечеткой логике сложение моделируется любой KQ-НОРМОЙ (max, a+b-a*b), а операция умножения НОРМОЙ (min, a*b,...).

И-нейроном (AND-нейроном) называется нейрон^ в котором умножет веса на вход моделируется любой КО-НОРМОЙ S(w,x), а сложение НОРМОЙT(w,x) (рисунок 1). Пример: (mm(max(wl,xl),max(wl,xl)))

Y=T(S(wl,xl).S(w2,x2

Рис. 1

ИЛИ-нейроном (ОЯ-нейроном) называется нейрон, в котором умножс.....

веса на вход моделируется НОРМОЙ Т(а^х), а сложение взвешенных весим

КО-НОРМОЙ Б^х): У=8(Т(\у1, х1),Т(ж2,х2)). Прим-г

(гnax(min(wIJx1)^mjn(w2,x2)))

ИСПО/ХЬЗОВАНЙЕ МЕТОДОЛОГИЙ ШЙРОКОМПЪЮТШП А

В РЕШЕНИИ ПРАКТИЧЕСКИХ ЗАДАЧ

Пример использования нейронных сетей в проекти|>ом*«Н

СТЕНДОВОГО оборудований Щ

Рассмотрим задачу конструирования стендового технож )1 и• м• ♦ оборудования (СТО), в частности, задачу выбора типоразмера корну* **

М А««. Л ¿ГАП.* «V. А А« «ЧА УГАЛГИА/ЛТ^ТЛтПП Л Л ЛЛУС» Г ГЛ. -» ГГ/Л Г<11ПП> -ЛЛТГ I • I •

ра^рсхиа 1 ывасшлл и у^х.рилч/юа. ошдишю рл/д, цриимпи!д и | »• »»#

таких как определение площади передней панели, определение тшм ми)»м| I выделение из множества альтернатив рациональных типоразмером г*ч |3|. Для решения каждой из этих подзадач требуется свой ниОпр ни который может быть получен с помощью НС.. I1

Обучающая выборка представляет собой множество строк, < | входные и выходные переменные. Каждая строка содержим < м< и одном стенде. Эксперименты по извлечению правил нршм'нмим процедур определения площадей передних панелей и для опрпк 1 корпусов. Л

Минимальная площадь передней панели согласно устами и'мм111 ней элементам определяется по следующей формуле: Ш

п

п _ /\

°эмкк ~~ I 7

Ч У !-

i •

1=1

О ^

лусг s ^^надп.^"1* ^mf ^зпи >

>

где п — количество элементов, устанавливаемых на передней панели;

п

£SyCT- суммарная установочная площадь элементов на передней панели;

i=I

°(^надп.) "" оценка суммарной площади надписей на передней панели; Sm -площадь шильдика заводского номера; кзпп - коэффициент заполнения передней панели (кзпп = const).

Оценка суммарной площади надписей определяется следующим образом:

0(SHaOT) = £sycT .kd, ' (6)

где kd - вспомогательный коэффициент оценки.

Таким образом, для определения площади передней панели необходим набор правил, который устанавливает соответствия между некоторыми входными переменными (устанавливаемыми на передней панели элементами) и значением коэффициента kd.

Анализ архива проектных решений позволил выделить в качестве иходных переменных, влияющих на значение коэффициента kd, следующие

параметры: количество тумблеров, количество элементов со шкалами;

Количество стрелочных индикаторов.

Задача определения типа корпуса сводится к выбору одного из трех и шов: корпус со скошенной передней панелью, корпус с шасси и корпус без шасси. В качестве выходной переменной используется переменная «пмбрашшй тип корпуса», принимающая свои значения на отрезке [0,1], причем «0» соответствует типу корпуса со скошенной передней панелью, иО S» — типу корпуса без шасси, «1» — типу корпуса с шасси.

Инструментом для эксперимента служил программный пакет FUNGEN I, который представляет собой один из вариантов нечеткой нейронной ni. 11одготовка эксперимента включала следующие этапы: определение структуры строки обучающей выборки; формирование лингвистических переменных и соответствующих ИКЦий принадлежностей;

ус тановку параметров ННС на размеры конкретного эксперимента, • иювки параметров режимов обучения и настройки функции

Тинидлежностей.

IViyjibTaTOM эксперимента является редуцированная ННС, в которой ним правила, слабо влияющие на конечный результат. В результате •гния ННС, кроме отбора правил, происходит настройка функций

мцдлсжностей.

1 исгсма поиска в INTERNET на базе использования нейронных И

Примерная схема поискового сервера по сети Internet приведена на рис. 2 .

V ni ТУ. 2/99

109

t—

ип

Н......

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

»у*■ ■ ■ • •••

СИ

I

г

Поисковый г~.......

сервер

Нейронная сеть

и о * Jj W tl URL

Временная БД URL

^_ Выходные потоки информации

-----------> Входные потоки информации

ЮТ - Интерфейс пользователя СИ - Служебный интерфейс

Рис.2

В такой схеме НС функционирует в двух качествах: как средство выбор!» информации из баз данных и как средство для внесения новой информации и соответствующие базы данных. Это становится возможным в резульпи» обучения нейронной сети словарю синонимов ключевых слов. В качес ми одного из вариантов представления обучающей выборки можно предложим такой, когда обучающая выборка состоит из набора структур следующим типа: <ключевое слово> Nb N2, ... , Nm, где Nk - номер группы синонимом, и

я

которую данное слово входит. Такой подход дает возможность получим, и»« выходах НС номера (по номерам активизировавшихся нейронов тшхощмнм слоя) групп синонимов, к которым принадлежит поданное на входной • им#

НС слово. ' Д

Функционирование НС в процессе поиска URL по ключевым < -иним сводится к определению номеров индексных таблиц, в которых чрммии1 ссылки на основную базу URL, содержащих ключевое слово и м» щN синоним. Далее вступают в действие традиционные алгоритмы по ш.мм!|||| Ц выводу конечному пользователю результатов поиска. Сходным oßpuidlj № используется и для внесения новых URL в базу данных. В эюм * '» ш помощью традиционных алгоритмов забирается ияфо{ >ммн ии

рассматриваемому адресу и разбивается на отдельные слова, .......г4 *

подаются на входы НС, в результате чего формируется миссии ><••• индексных таблиц, в которые, после занесения в основную !«/'! информации о новой URL, добавляется ссылка на соответствуют , ■<• БД URL. JH

ЗАКЛЮЧЕНИЕ

На основе результатов использования НС можно сдс ит м целесообразности применения рассматриваемой методологии им •• круга практических задач. Следует отметить высокую эффек I мшим

испиилими&л;шп; а ту оада^ал, лъчирс^ хрил^лд д^Ь ил

1_ м

ЪЫ^я^КикЬалпштд,припаг1по1л опаагт п иракипи ишии!,

110

Ми •ми!

СПИСОК ЛИТЕРАТУРЫ

1. Рахматулин А.Э. Современные методы нейрокомьютинга в экономическом анализе / Тез. докл. третьей Междунар. конф. студентов и аспирантов им. Л.В. Канторовича «Предпринимательство и реформы в России». Ч 1. СПб.: Издательство С.-Петербургского университета, 1997.

2. Ярушкина Н.Г., Рахматулин А.Э., Глебов С.С. Исследование эффективности методов нейроинформатики для анализа тенденций / Тр. междунар. НТК «Нейронные, реляторные и непрерывнологические сети и модели». Т.1. Ульяновск: УлГТУ, 1998.

3. Мактас М.Я., Наместников A.M., Сапегин Н.Г., Ярушкина Н.Г. «Применение нечетких моделей в экспертных системах САПР стендового оборудования» / Тр. шестой нац. конф. по искусственному интеллекту КИИ'98 с международным участием. Сборник научных трудов в 3 т. T.L Пущино, ¡998.

Наместников Алексей Михайлович, окончил радиотехнический факультет УлГТУ. Аспирант УлГТУ. Имеет публикации в области экспертных систем.

Рахматулин Андрей Эньварович, окончил факультет информационных систем и технологий УлГТУ. Инженер кафедры информационных систем УлГТУ. Имеет публикации в области информационных технологий.

Сапегин Николай Геннадъеаич, окончил факультет информационных систем ц технологий УлГТУ. Инженер кафеОры информационных систем УлГТУ. Имеет публикации в области информационных технологии.

limb УлГГУ. 2/99

111

i Надоели баннеры? Вы всегда можете отключить рекламу.