подграф gi = тах(А1, А2) - тах(Д, А2). А. - значение (2) для О. после перемещения вершины V 1 . Вершина Уе с максимальным выигрышем
ge = тах(gi) перемещается, для неперемещен-
'=1, к
ных вершин выполняется пересчет выигрышей. После перемещения всех вершин определяется последовательность перемещений 51, s2, ..., sk, при которой достигается минимум величины А = тах(А1, А2). Если эта величина меньше значения целевой функции до начала итерации А < А0, то разбиение с последовательностью
перемещении s1, s2
принимается на сле-
дующей итерации за исходное. В противном случае достигнут локальный минимум и дальнейшее улучшение невозможно.
Уточнение разбиения. На каждом шаге этого этапа выполняется проецирование разбиения более грубого графа От на более точный От-1. Проектирование производится путем назначения вершинам V. :. е V',к графа О', образующим вершину vk графа , подграфа вершины vk, Р (.) = Рм (к). После каждого проектирования выполняется процедура улучшения разбиения, описанная выше.
Результаты. Эффективность разработанного алгоритма (МУА) оценена сравнением с экспертными разбиениями, произведенными в ходе
эксплуатации на графах реальных дорожных сетей. На рис. 1 изображена зависимость А от ^ т. / для этого сравнения. Разбиения разработанным алгоритмом обладают значением целевой функции А меньшим от 11 до 84 % , чем экспертные разбиения.
МУА также был сравнен с алгоритмом рекурсивной спектральной бисекции (РСБ), генетическим алгоритмом (ГА) и алгоритмом приращения регионов (ПР). Зависимость log2(Л) от ^ т. / 2 при разбиении на 8 и 16 подграфов
представлена на рис. 2 и 3 соответственно. Разбиения, полученные разработанным алгоритмом, обладают в среднем на 30 % меньшим значением целевой функции, чем лучший из сравниваемых алгоритмов.
В статье предложен алгоритм разбиения графа с минимизацией средних перемещений на основе многоуровневой структуры процесса разбиения. Многоуровневая основа алгоритма позволяет получать разбиения графов большой размерности за приемлемое время. Предлагаемый алгоритм делает возможным разбиения графов со значением целевой функции в среднем на 41 % меньшим, чем экспертные разбиения, и на 30 % меньшим, чем разбиения лучшим из рассматриваемых алгоритмов.
список литературы
1. Karypis, G. A Fast and High Quality Multilevel
Scheme for Partitioning Irregular Graphs [Текст] / G. Karypis, V. Kumar // SIAM J. on Scientific Computing. -1999. -Vol. 20 (1). -Р. 359-392.
2. Fiduccia, C.M. A Linear-Time Heuristic for Improving Network Partitions [Текст] / C.M. Fiduccia, R.M. Mattheyses // Design Automation. 19th Conf. -1982. -P. 175-181.
УДК 681.3
Ч.Ф. Ахатова
методы и модели искусственного интеллекта
В АНАЛИЗЕ данных И ПРИНЛТИИ РЕШЕНИй
Во многих предметных областях человеческой деятельности для решения важных практических задач используются экспертные системы, основным элементом которых является база знаний. Правила, составляющие базу знаний, формулируются экспертом или формируются на осно-
ве методов интеллектуального анализа данных. В первом случае требуется большая аналитическая работа эксперта. Во втором - меньшая работа, т. к. эксперт лишь участвует на этапах выдвижения гипотез и оценки сформированных правил и закономерностей. Очевидно, что в настоящее
время, в связи с наличием больших накопленных массивов данных и имеющимся инструментарием для их интеллектуального анализа, целесообразнее использование второго подхода к построению баз знаний экспертных систем.
Исследованием вопросов разработки экспертных систем и формированием их баз знаний занимались многие российские и зарубежные ученые, внесшие значительный вклад в развитие данного направления искусственного интеллекта. Тем не менее многие вопросы повышения эффективности процессов формирования баз знаний экспертных систем до сих пор остаются не до конца изученными.
В ряде работ по искусственному интеллекту [3, 4, 6, 10] для формирования баз знаний экспертных систем рекомендуется использовать нечеткие нейронные сети (ННС). Однако авторы, как правило, предлагают для их обучения использовать алгоритм обратного распространения ошибки, основанный на методе градиентного спуска. Известные недостатки данного алгоритма, связанные с длительностью процесса обучения и сложностью нахождения оптимального решения, заставляют задуматься о его эффективности применительно к обучению нечеткой нейронной сети при формировании базы знаний экспертной системы.
При этом в практике разработки интеллектуальных систем существует тенденция использования гибридных моделей для решения различных практических задач. Так, применительно к обучению нечетких нейронных сетей и настройке параметров функций принадлежности антецедентов нечетких правил, некоторые авторы, наряду с традиционными методами оптимизации, используют генетический алгоритм [1, 2, 8]. Экспериментальные исследования показали, что использование данного подхода позволяет добиться лучших результатов по повышению скорости и точности решаемых задач.
Таким образом, применительно к проблеме формирования баз знаний экспертных систем актуальна задача разработки эффективного алгоритма обучения нечеткой нейронной сети на основе интеллектуальных методов и эффективных эвристических алгоритмов.
Постановка задачи исследования. Как известно, нечеткие нейронные сети представляют собой гибридные модели, сочетающие в себе достоинства нейронных сетей (возможность
адаптивного самообучения) и нечетких систем (хорошая интерпретируемость получаемого с их помощью результата). При этом нечеткая нейронная сеть в результате обучения формирует систему правил, составляющих базу знаний экспертной системы.
Среди множества моделей представления знаний в настоящее время большое распространение получили правила продукций из-за их гибкости и простоты описания закономерностей предметной области. Однако большинство задач в различных областях человеческой деятельности приходится решать в условиях нечеткости, неполноты и недостоверности исходных данных. В рамках использования обычных продукционных правил решение многих задач становится затруднительным. Для их решения необходимо применять нечеткие продукции и системы нечеткого логического вывода.
Таким образом, задача настоящего исследования сводится к выбору гибкой нечетко-продукционной модели представления знаний и разработке нечеткой нейронной сети, позволяющей в результате обучения формировать базу знаний экспертной системы правилами, представленными в форме нечетких продукций.
Нечетко-продукционная модель представления знаний. В [5] на примере задачи планирования геолого-технических мероприятий на нефтяных месторождениях показано, что зависимость между значениями входных параметров (условиями) и назначаемым результатом может быть эффективно описана экспертом в виде следующей нечетко-продукционной модели представления знаний:
«ЕСЛИ Р/ есть А (<) И
Р2 есть А () И
... И
Р/ есть % () ТО Возможно применение
технологии TJ» [ С¥' ], где Р1 = {Р11} - множество входных параметров правила; А = (А%} - множество нечетких ограничений на параметры Р; уу1 = {и'/ } - веса нечетких ограничений, определяющие их важность; CFJ е[0, 1] - степень достоверности сформированного правила - степень уверенности эксперта в его универсальности; Т еТ - технология, рекомендуемая к применению.
При этом существует алгоритм нечеткого логического вывода на правилах данной модели [5],
Рис. 1. Пример структуры нечеткой нейронной сети
на основе которого разработана нейронечеткая модель формирования баз знаний экспертных систем [6].
Нейронечеткая модель формирования баз знаний экспертных систем. Разработанная модель в виде ННС реализует алгоритм нечеткого логического вывода на нечетко-продукционной модели представления знаний [5], что определяет число слоев сети и их функциональность. Количество нейронов в слоях ННС зависит от числа входных, выходных параметров, а также от числа градаций входных нейронов.
В качестве примера рассмотрим нечеткую нейронную сеть, имеющую один выход и два входа с тремя нечеткими градациями (рис. 1).
В нулевом слое ННС содержится два Р-нейрона, выполняющих функцию распределения входных сигналов по нейронам первого слоя. В первом слое сети содержится 2-3 = 6 А-нейронов, моделирующих нечеткие условия вида «Р есть А ». Выход А-нейронов равен значениям функций принадлежности Аг (степень срабатывания условий) при соответствующих значениях входных нейронов. Второй слой содержит 32 = 9 И-нейронов, задающих нечеткие продукции в виде «ЕСЛИ р есть А И Р2 есть А ТО Т\». Выход И-нейронов определяет оценку срабатывания соответствующего правила . Третий слой сети состоит из девяти Сотр-нейронов, на выходе которых рассчитываются комплексные оценки срабатывания правил, равные произведению значений соответствующих оценок доверия к принятому решению на оценки . Веса
связи Сотр-нейронов с выходом ННС определяют степени достоверности сформированных правил СЕ. Произведения выходов Сотр-нейронов на их веса образуют общий коэффициент достоверности решений. В четвертом слое содержится Т-нейрон, на выходе которого вычисляются взвешенные нормированные оценки достоверности принимаемого решения.
Для получения системы правил, формирующих базу знаний экспертной системы, необходимо произвести обучение нечеткой нейронной сети, заключающееся в настройке значений соответствующих параметров ее функций принадлежности А..
г
Проблемы обучения нечеткой нейронной сети. В [6] для решения задачи обучения ННС использован алгоритм обратного распространения ошибки. В [7] для устранения недостатков данного алгоритма предложен специально разработанный генетический алгоритм. Однако при его реализации была выявлена проблема выбора лучшего хромосомного набора, определяющего параметры функций принадлежности ННС. Попытки решения данной проблемы привели к необходимости введения вспомогательных операций композиции и декомпозиции хромосом [7], что повлияло на увеличение времени обучения. Для повышения эффективности процесса обучения ННС разработан гибридный алгоритм, сочетающий в себе достоинства генетических алгоритмов с принципами градиентного метода обучения.
Гибридный алгоритм обучения нечеткой нейронной сети. Рассмотрим этапы работы гибридного алгоритма обучения ННС.
1. Задается начальное значение адаптивного шага обучения а (0 < а < 1), желаемая ошибка выхода нейронной сети Е а также минимальный порог изменения ошибки при обучении АЕт1п.
2. На вход сети подаются г-е образы из обучающей выборки, для каждого из которых:
производится фаза прямого распространения сигнала по нейронной сети, определяется взвешенная активность выходного нейрона (значение выхода у'Т);
вычисляется среднеквадратичная ошибка выхода нейронной сети для г-го входного образа Е'т = 1(АуТ)2, где Ау'Т = у'Т - 1Т - абсолютная
ошибка выхода; 1Т - требуемое значение выхода;
для минимизации ошибки Е'Т последовательно настраиваются выходы Сотр-нейронов хгг на
основе генетического алгоритма GAMT (Genetic Algorithm for Minimized T-error);
вычисляются требуемые значения выходов
4(*+i)
И-нейРонов (5' )1ре6 =
S'
где t - момент
времени;
рассчитываются среднеквадратичные ошибки выходов И-нейронов (Е[) = — (51, )2, где
'и 2 И
= Б' - (Б' ) _ - абсолютная ошибка выхода, (5' ) _ - требуемое значение выхода;
К'И треб
для минимизации ошибки Eт последовательно модифицируются параметры функций принадлежности соответствующих А-нейронов на основе генетического алгоритма GAMM (Genetic Algorithm for Minimized M-error).
3. Вычисляется среднее значение ошибки вы-
1 n
хода для всех входных образов: Е^ .
n i=1
4. Рассчитывается изменение ошибки выхода:
AETP = ETP(t -1) - ETP(0.
5. Если 0 < AETV < AEmin, то процесс обучения заканчивается.
Рис. 2. Блок-схема алгоритма обучения нечеткой нейронной сети
6. Если ЕТ^ > Ет, то происходит переход к шагу 7 алгоритма, иначе процесс обучения нечеткой нейронной сети заканчивается.
7. Проверяется условие не возрастания ошибки выхода нейронной сети: если ДЕТР < 0, то уменьшается адаптивный шаг обучения и происходит переход ко второму шагу алгоритма.
На рис. 2 представлена блок-схема данного алгоритма.
Данный алгоритм функционирует до тех пор, пока средняя ошибка выхода нейронной сети не станет меньше заданной (ЕТР < Ет), либо изменение ошибки выхода ДЕ^Р не будет превышать минимально допустимый уровень ДЕш1п.
В рамках соответствующих генетических алгоритмов происходит настройка выходов Сошр-нейронов, а также искомых значений параметров соответствующих функций принадлежности А-нейронов. Рассмотрим этапы работы данных алгоритмов.
Этапы работы генетических алгоритмов. Общим в работе каждого из алгоритмов является то, что они соответствуют принципам работы классического генетического алгоритма [7]. Таким образом, для практического применения алгоритмов необходимо задать способ кодирования и декодирования параметров задачи, определить правило создания начальной популяции хромосом, ввести оценку приспособленности хромосом в популяции, разработать правила селекции хромосом, применения генетических операторов скрещивания и мутации, а также формирования новой популяции.
Кодирование и декодирование параметров задачи. Рассмотрим способ кодирования параметров задачи для генетического алгоритма GAMИ. Как было сказано выше, его работа заключается в настройке соответствующих параметров функций принадлежности ННС, которые задаются некоторой параметризованной функцией формы (треугольной, трапецеидальной, гауссовой и др.) с вектором параметров ик . Так, для треугольной функции принадлежности ик = (ы1к,и2к,и3к), где и1к - левое основание, и2к - центр (мода), и3к - правое основание.
Настройка параметров и'к функций принадлежности осуществляется в окрестности Д=[ик ,ик ], ширина которой определяется индивидуально для каждого параметра и может составлять до 30 % ширины ее основания.
Разобьем данную окрестность на 2п интервалов, где п - целое число, например, 10. Тогда параметр и.к сможет принимать одно из 210 значений, которые будут кодироваться хромосомой {ик} длиной 10 бит. При этом хромосома, состоящая из нулей, будет соответствовать значению параметра ик , а состоящая из единиц - значению и к . Таким образом, мощность хромосомного набора для каждого параметра и к функции принадлежности равна числу 2п.
Во время работы алгоритма ОАМТ происходит настройка выходов Сошр-нейронов х', область значений которых постоянна и равна [0, 1]. Способ разбиения данного отрезка и кодирование значений выходов Сошр-нейронов аналогичны алгоритму ОАМИ. При этом мощность хромосомного набора для каждого параметра х\с также равна числу 2п.
Во время обучения нечеткой нейронной сети возникает необходимость перехода от хромосомного набора к десятичным значениям параметров. Для этого необходимо выполнить процедуру декодирования, являющуюся инверсной по отношению к операции кодирования хромосом.
Создание начальной популяции хромосом. Функционирование генетических алгоритмов начинается с создания начальных популяций хромосом для всех параметров ННС, участвующих в обучении. При задании значения числа п мощность хромосомного набора для любого параметра постоянна и равна 2п, где п - длина хромосомы. Объем начальной популяции хромосом N рекомендуется выбирать на порядок меньше числа 2п. Однако при малых значениях п (п < 10)
2п
данный объем должен быть сравним с числом —.
п
Так, например, при п = 10 для создания начальной популяции случайным образом выбираются N = 100 хромосом сЬ. (' = 1.^ из общего хромосомного набора мощностью 1024.
Следует отметить, что значения п < 10 выбирать не рекомендуется. Это приводит к малой вариабельности параметров, что в дальнейшем может негативно отразиться на результатах обучения нечеткой нейронной сети.
Оценка приспособленности хромосом в популяции. Когда соответствующие параметры ННС закодированы и сформированы начальные популяции хромосом, необходимо оценить приспособленность каждой хромосомы сЬ, в популяции.
В генетическом алгоритме ОАМТ в роли
Рис. 3. Колесо рулетки для селекции хромосом
функции приспособленности выступает среднеквадратичная ошибка выхода нейронной сети Е1Т. Соответственно, в алгоритме ОЛЫИ функцией приспособленности является ошибка выхода И-нейрона Е. .
Для оценки приспособленности хромосом ск производится расчет значений соответствующих функций приспособленности, на вход которых подаются декодированные значения хромосом. При этом каждой хромосоме ск из общего хромосомного набора ставится в соответствие величина ее приспособленности Е(ск).
Селекция хромосом. Селекция хромосом заключается в выборе по рассчитанным значениям функции приспособленности тех хромосом, которые будут участвовать в создании особей следующего поколения. Такой выбор производится согласно принципу естественного отбора, по которому наибольшие шансы на участие в создании потомков имеют хромосомы с наименьшими значениями функции приспособленности (исходя из требования минимизации среднеквадратичной ошибки).
Оператор селекции реализуется на основе метода рулетки [9]. Для каждой хромосомы текущей популяции формируется сектор на колесе рулетки, площадь которого пропорциональна значению инверсной вероятности селекции дан-1-Е(ск)
ной хромосомы р =
I (1-Е(ск))
(рис. 3).
Розыгрыш с помощью колеса рулетки сводится к случайному выбору числа из интервала [0, Щ, указывающего на сектор колеса, которому соответствует конкретная хромосома. Таким способом из текущей популяции выбираются два кандидата-родителя, к которым в дальнейшем применяются генетические операторы для порождения потомков.
Применение генетических операторов. Основные операторы описываемых генетических алгоритмов - операторы скрещивания и мутации, применяющиеся к хромосомному набору соответствующих параметров нечеткой нейронной сети. Рассмотрим пример работы оператора скрещивания (табл. 1).
Здесь X и ¥ - исходные решения (родители); 2, Q - новые решения (потомки).
Как видно из таблицы, в исходных хромосомах случайным образом выбирается точка скрещивания (в данном случае в -й позиции хромосом), после чего происходит обмен противоположными частями родителей. Так происходит рождение новых потомков. Отметим, что процесс скрещивания носит случайный характер и производится с вероятностью рсе [0,5, 1].
Оператор мутации, применяемый к потомкам после скрещивания, также производится случайно с вероятностью р е[0, 0,05]. Сам процесс мутации заключается в инверсии одного из битов строки дочерних хромосом, выбираемого по равномерному закону.
Таким образом, в результате выполнения
Таблица 1
Пример работы оператора скрещивания
^^^^^^^Позиции генов Хромосомы 1 / ,+1 п
X а, а. а,+, а
¥ в, в, в,+, в„
4
1 а, а. в,+, в„
Q в, в, а,+, а
генетических операторов исходная популяция хромосом за счет порожденных новых потомков увеличилась на два члена. Однако размер следующего поколения хромосом должен оставаться постоянным. Рассмотрим, каким образом решается задача сокращения размерности хромосомного набора на этапе формирования новой популяции.
Формирование новой популяции. Для сокращения размера популяции до исходного числа особей применяется оператор редукции. Для этого оценивается приспособленность каждой хромосомы, после чего из популяции исключаются две хромосомы с максимальным значением целевой функции.
Таким образом, с каждым циклом работы генетических алгоритмов в популяциях остаются только наиболее приспособленные хромосомы, уменьшающие значение среднеквадратичной ошибки выхода нейронной сети. Это значит, что после останова работы алгоритмов получим обу-
ченную нечеткую нейронную сеть с функциями принадлежности и правилами, позволяющими с заданной точностью аппроксимировать данные из обучающей выборки.
Апробация нейронечеткой системы и анализ эффективности алгоритмов обучения нечеткой нейронной сети. На базе описанной модели формирования баз знаний экспертных систем реализована нейронечеткая система. В качестве примера ее практического использования рассмотрим процесс анализа медицинских данных. Пусть необходимо выявить зависимость между временными параметрами пациента и риском возникновения у него заболевания.
В качестве входов нейронной сети примем параметры «возраст пациента», «стаж заболевания» и «стаж физических нагрузок», а в качестве выхода - «протрузия межпозвонкового диска». В результате обучения нечеткой нейронной сети получим правила следующего вида:
ЕСЛИ
ТО
«Возраст пациента»=«средний» ^ = 0,47) И «Стаж заболевания»=«большой» ^ = 0,59) И «Стаж физических нагрузок»=«большой» (^ = 0,61) «Возможно наличие протрузии диска» (С^ = 0,63).
Особенности формирования базы знаний с использованием нечеткой нейронной сети изучались при разработке экспертной системы диагностики клинических проявлений остеохондроза поясничного отдела позвоночника [9].
Для получения системы правил и их параметров измерено более 500 тыс. значений признаков течения поясничного остеохондроза по 822 признакам. В результате применения нейронечеткой
системы на более чем 100 обучающих выборках получено более 500 правил, значимость которых подтверждена экспертами - специалистами-вертеброневрологами.
Результаты проведенного исследования подтвердили возможность и эффективность применения нейронечеткой системы для диагностического процесса в вертеброневрологии.
Для анализа эффективности алгоритмов обу-
Таблица 2
Результаты сравнения эффективности алгоритмов
Наименование алгоритма Значение параметра Оцениваемые параметры
Значение выхода Ошибка выхода Время обучения Число эпох
Обратного распространения ошибки Лучшее 0,7 0,05 00:01:48 96247
Среднее 0,63 0,07 00:02:11 114247
Худшее 0,3 0,25 00:10:27 547195
Генетический алгоритм Лучшее 0,62 0,07 00:00:58 517
Среднее 0,57 0,09 00:01:25 736
Худшее 0,43 0,16 00:02:46 1461
Гибридный алгоритм Лучшее 0,83 0,01 00:00:16 93
Среднее 0,75 0,03 00:00:42 248
Худшее 0,59 0,08 00:01:07 371
чения нечеткой нейронной сети произведено сравнение результатов применения гибридного алгоритма обучения нейронной сети с результатами, полученными в предыдущих исследованиях на базе алгоритма обратного распространения ошибки [6] и генетического алгоритма [7]. Проведен ряд численно-параметрических исследований сравнения эффективности работы описанных алгоритмов по критериям «скорость обучения» и «точность аппроксимации» на множестве обучающих выборок.
В табл. 2 представлены основные результаты сравнения эффективности различных алгоритмов обучения ННС.
Как видно из таблицы, результаты работы гибридного алгоритма обучения ННС по всем критериям лучше соответствующих результатов работы других алгоритмов. В некоторых случаях эффективность гибридного алгоритма сравнима с эффективностью простого генетического алгорит-
ма. При этом эффективность алгоритма обратного распространения ошибки оказалось самой низкой.
Практическое значение нейронечеткой модели заключается в возможности эффективного формирования баз знаний экспертных систем. Обученная нейронная сеть - адаптивная система нечеткого логического вывода. Она может использоваться как инструмент эксперта в составе мягкой или партнерской экспертной системы и позволяет заменить (или дополнить) эвристический процесс построения базы знаний на процесс автоматизированного ее формирования, извлекая продукционные закономерности из статистических выборок данных.
Таким образом, предложенная в данной статье нейронечеткая система с гибридным алгоритмом обучения вносит определенный вклад в развитие технологий интеллектуального анализа данных и формирования баз знаний экспертных систем.
список л
1. Arotaritei, D. Genetic Algorithm for Fuzzy Neural Networks using Locally Crossover [Text] / D. Arotaritei // International J. of Computers Communications & Control. -2011. -№ 6(1). -P. 8-20.
2. Banakar, Ahmad. Wavelet Neuro-Fuzzy Model With Hybrid Learning Algorithm Of Gradient Descent And Genetic Algorithm [Text] / Ahmad Banakar, Azeem, Mohammad Fazle // International J. of Wavelets Multiresolution And Information Proc. -2011. -Vol.9. -№ 2. -P. 333-359.
3. Klawonn, F. Generation Rules from Data by Fuzzy and Neuro-Fuzzy Methods [Text] / F. Klawonn, D. Nauck, R. Kruse // Proc. of the Third German Workshop Fuzzy-Neuro-Systeme. -1995.
4. Глова, В.И. Формирование базы знаний медицинской диагностической экспертной системы на основе нечеткой нейронной сети [Текст] / В.И. Глова, И.В. Аникин, А.С. Катасёв [и др.] // Исследования по информатике. - Казань: Отечество, 2007. -Вып. 12. -С. 31-46.
5. Глова, В.И. Методы многокритериального принятия решений в условиях неопределённости в задачах нефтедобычи [Текст] / В.И. Глова, И.В. Аникин, М.Р. Шагиахметов. -Казань: Изд-во Казан. гос. техн. ун-та, 2004. -31 с.
6. Катасёв, А.С. Нейронечеткая модель и программный комплекс формирования баз знаний экспертных систем: Дисс. ... канд. техн. наук [Текст] / А.С. Катасёв. -Казань, 2006. -20 с.
7. Катасёв, А.С. Нейронечеткая модель формирования баз знаний экспертных систем с генетическим алгоритмом обучения [Текст] / А.С. Катасёв, Ч.Ф. Аха-това // Проблемы управления и моделирования в сложных системах: Тр. XII Межд. конф. - Самара: Самарский научный центр РАН, 20Ю. -С. 6!5-62Г
8. Лавыгина, А.В. Гибридный алгоритм настройки параметров нечетких моделей [Текст] / А.В. Лавыгина, И.А. Ходашинский // XII национальная конф. по искусственному интеллекту с междунар. участием КИИ-20Ш; Тр. конф. Т. 4. -М.: Физматлит, 20Ю. -С. П2-П5.
9. Рутковская, Д. Нейронные сети, генетические алгоритмы и нечеткие системы [Текст] / Д. Рутковская, М. Пилиньский, Л. Рутковский; пер. с польск. И.Д. Ру-динского. -М.: Горячая линия. -Телеком, 2006. -452 с.
Ю. Ярушкина, Н.Г. Основы теории нечётких и гибридных систем: Учеб. пособие [Текст] / Н.Г. Ярушкина. -М.: Финансы и статистика, 2004. -320 с.