Научная статья на тему 'Структурно-параметрическая идентификация нечетких систем с использованием обобщенного критерия адекватности'

Структурно-параметрическая идентификация нечетких систем с использованием обобщенного критерия адекватности Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
125
38
i Надоели баннеры? Вы всегда можете отключить рекламу.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Ковалев С. М.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Структурно-параметрическая идентификация нечетких систем с использованием обобщенного критерия адекватности»

Ух ^ Уг < У'х ^ Угк .В этом случае степень изоморфизма оценится как

f ^УХ > ^УП ^УхК ~ Уп .

Рассмотрев все возможные случаи, мы, тем самым, доказали Свойство 2. Доказанные выше свойства позволяют по нечетким множествам живучести оценивать возможную степень изоморфизма нечетких графов.

БИБЛИОГРАФИЧЕСКИЙ СПИСОК

1. Зыков А.А.. Основы теории графов. - М.: Наука. Гл.ред.физ.-мат.лит., 1987.

2. Кофман А. Введение в теорию нечетких множеств. - М.:Радио и связь, 1982.

3. Берштейн Л.С.,Карелин В.П.,Целых А.Н. Модели и методы принятия решений в интегрированных интеллектуальных системах. - Ростов-на-Дону: Изд-во Ростовского уни-

, 1999.

4. Берштейн Л.С.,Боженюк А.В. Оценка степени изоморфизма на основе нечетких множеств внутренней устойчивости и клик нечетких графов. // Программные Продукты и Системы. №1, 2002. - С. 12-15.

5. Берш тейн Л.С.,Боженюк А.В. Нечеткая раскраска и оценка степени изоморфизма нечетких графов. // Известия РАН. ТиСУ. №3, 2002. - С. 116-122.

6. Боженюк А.В.,Розенберг ММ. Метод определения живучести нечетких графов. // Научная сессия МИФИ-2005. Сборник научных трудов. В 15 томах. Т.3. Интеллектуальные системы и технологии. - М.: МИФИ, 2005. - С. 146-147.

7. Берштейн Л.С.,БоженюкА.В. Введение в теорию нечетких графов: Учебное пособие. -

: - , 1999.

С.М. Ковалев СТРУКТУРНО-ПАРАМЕТРИЧЕСКАЯ ИДЕНТИФИКАЦИЯ НЕЧЕТКИХ СИСТЕМ С ИСПОЛЬЗОВАНИЕМ ОБОБЩЕННОГО КРИТЕРИЯ АДЕКВАТНОСТИ*

Введение. В работе рассматривается один из возможных подходов к построению нечетких моделей по экспериментальным данным в контексте более об, -ких моделей и систем, сформированных на основе алгоритмов обучения.

Большинство исследований в этой области касается проблемы обучения нечетких систем (НС) с позиции точности реализуемых ими преобразований. Однако, , -симирующих возможностей НС, не позволяет в полной мере реализовать основные , , , -, -ших качественных описаний сложных процессов или явлений при неполных или неточных исходных данных. Для решения этой проблемы задача обучения НС должна рассматриваться и решаться с учетом нескольких критериев, взаимоувязанных в общий показатель адекватности НС.

* Работа выполнена при поддержке РФФИ, грант № 04-01-00277

Постановка задачи. В качестве НС 5 : У ^ V рассматривается матема-

,

переменных Vе У (V = (х,у,...,г), У = XXУ X...X2) в численные значения выходных переменных й е V . Для простоты будем считать, что НС имеет одну

выходную переменную V . Преобразование У ^ V , реализуемое НС, задано

совокупностью нечетких правил “Если ..., то ...” , описывающих вход-выходные зависимости между системными переменными У и V, представленными с использованием нечетких термов, ассоциированных с лингвистическими значениями системных переменных. Преобразование У ^ V реализуется в НС с использованием стандартного механизма нечетко-логического вывода, основанного на интерпретации предусловий правил значениями входных переменных с последующим распространением нечетких ограничений на заключения правил, агрегированием нечетких заключений на шкале выходной переменной и дефаззификацией полученного нечеткого множества для получения четкого значения выходной переменной.

При фиксированном способе вывода характер преобразования, реализуемо, - ,

входящих в базу знаний (БЗ) НС, и видом функций принадлежности (ФП) нечетких , .

- -становке формулируется как задача обучения. Располагая конечным множеством примеров реализации зависимости У ^ V (обучающей выборкой), требуется сформировать систему нечетких правил и определить параметры ФП нечетких термов, входящих в описания правил, таким образом, чтобы полученная НС в наиболее полной мере удовлетворяла заданному критерию обучения. При этом в качестве критерия обучения обычно рассматривается точность преобразования У ^ V, оцениваемая среднеквадратичным отклонением выходных значений

V* (V), фактически сгенерированных НС, от требуемых выходных значений V (V), заданных в обучающей выборке.

Среднеквадратичный критерий оценки точности преобразования в настоящее время является доминирующим критерием, используемым не только при разработке алгоритмов обучения НС и оценке их адекватности, но и при построении многих других математических моделей, осуществляющих аппроксимацию многомерных данных и функций и, в частности, нейросетевых моделей.

Однако, подход к проблеме обучения НС и оценки их адекватности, основанный лишь на использовании среднеквадратичного критерия, представляется не совсем верным по ряду причин.

- , , -проксимации больших объемов “средне зашумленных” данных, оказывается мало эффективным при обучении на небольших обучающих выборках или сильно зашумленных данных, что, например, характерно для задач, связанных с обработкой экспертных данных, полученных от нескольких экспертов. Во-вторых, подход к обучению НС с позиции точности реализуемых ею преобразований плохо согласуется с тем известным фактом, что для более-менее сложных процессов и систем, функционирующих в слабо структурированных предметных областях, принципиально невозможно получение точных преобразований, а поэтому неточность пре-

образований и нечеткость процессов принятия решений, связанных с этими преобразованиями, являются объективными свойствами НС, с которыми необходимо считаться при их построении. И, наконец, в третьих, такой подход не отражает саму сущность нечетко-логического моделирования, заключающуюся в построении не столько точной аналитической модели процесса, сколько в построении эвристически адекватной модели, имитирующей способности человеческого мышления по выявлению в исследуемом процессе наиболее характерных качественных закономерностей и тенденций с целью последующего их использования для принятия решений.

Исходя из сказанного, в качестве альтернативы существующим подходам к обучению НС на основе критериев, оценивающих точность преобразования

У ^ V , предлагается подход, в основе которого лежит идея формирования та,

наибольшей мере соответствовала бы современным представлениям об организации человеческого мышления и человеческой системы обработки информации.

Принципы формирования адекватной НС. Исследования в области ИИ позволяют в качестве основных принципов организации мышления эксперта рассматривать следующие принципы, которые можно положить в основу альтернативного подхода к построению НС с использованием механизмов обучения.

1. Принцип рациональности человеческого мышления [1, 2], согласно которому НС как средство моделирования человеческих рассуждений должна содержать минимальное число достаточно простых по своей структуре, легко интерпретируемых решающих правил, основанных на обобщенных значениях признаков, обеспечивающих релевантную в контексте поставленной задачи точность преобразования ВХОД-ВЫХОД. С целью повышения компактности и интерпретационной пригодности правил в описаниях правил используются обобщенные значения признаков, объединенные в классы дизьюнктивно-коньюнктивных выражений ( ), -чающих данных с использованием наиболее компактных и рациональных с вычислительной точки зрения формул.

2. Принцип иерархичности человеческого мышления [1], заключающейся в рациональном комбинировании сильно обобщенных значений признаков, используемых для аппроксимации данных “по крупному” с целью выявления в них наиболее характерных качественных закономерностей и тенденций, и детализированных значений признаков, играющих роль уточняющих нечетких термов и используемых для представления в НС более тонких зависимостей между входными и

,

признаковых пространств, описываемых обобщенными признаками. Детализированные значения признаков объединяются в специальные классы уточняющих описаний, играющих в БЗ НС роль аналогичную той, которую выполняют погра-, -гласно теории подсознательных решающих правил Ларичева [1].

Число дополнительных уточняющих термов в НС определяется степенью вычурности аппроксимируемых областей признакового пространства. Однако, если обучающая выборка содержит сильно искаженные помехами данные, то количество детализирующих термов, входящих в НС, соответственно возрастает, поскольку НС, “не зная” об этих искажениях, должна правильно работать на всех данных, входящих в обучающую выборку. Увеличение числа нечетких термов в

НС в данном случае является той минимальной платой за несоизмеримо большее , , возможностей на сильно зашумленных данных.

3. Принцип нелинейности мышления [3, 4], согласно которому при формировании сложных понятий эксперт оперирует не только прямыми, но и исключающими значениями признаков, что диктует необходимость использования в описаниях нечетких правил, входящих в БЗ НС, как прямых, так и инверсных нечетких переменных. Использование исключающих признаков в предусловиях правил обеспечивает возможность компактного представления ими достаточно сложных областей признаковых пространств, имеющих разрывы и вычурные границы, с использованием небольшого числа правил, благодаря чему удается обеспечить требуемый уровень детализации описаний при сохранении ими хороших обоб-.

Общий подход к обучению НС. Сформулированным выше принципам удовлетворяет рассматриваемый ниже подход к обучению, реализующий поэтапную стратегию структур но-параметрической идентификации НС. Поскольку задача структурно-параметрической идентификации НС с математической точки зрения представляет собой оптимизационную задачу в гетерогенном пространстве поиска, включающим структурное пространство продукционных правил и пространство параметров ФП, имеет смысл разбить ее на две относительно самостоятельные подзадачи. Первая заключается в выборе оптимального терм-множества, определение границ размещения термов на признаковых шкалах и формирование структур решающих правил в классе ДКНФ, а вторая - в оптимизации параметров ФП нечетких термов, входящих в описания нечетких правил, и параметров нечетких операций, добавленных в описания правил с целью повышения их выразительных возможностей по представлению исключающих и детализирующих признаков.

Концепция обучения реализуется в три этапа.

Этап. 1. Вначале осуществляется разбиение шкалы выходной переменной и, ограниченной минимальным Vмш = штЦ^(V) е О) и максимальным

Vшх = шах^(V) е О) значениями выходной переменной, на относительно небольшое число к интервалов (к = 7 ± 2), подобно тому, как это делает эксперт, давая качественную оценку значению выходной переменной с использованием таких нечетких понятий, как “Малое”, “Большое” и т.п. Разбиение выходной переменной И порождает разбиение входных обучающих данных на соответствующее число к классов, для описания которых в признаковом пространстве У = XXУX...X2 ХУ..2 формируются правильные прямоугольные области (гиперпрямоугольники), каждая из которых задает одно четкое классифицирующее “Если ...то...” правило, описывающее факт принадлежности входных обучающих данных соответствующему классу разбиения. Классифицирующие правила являются прототипами нечетких правил, входящих в БЗ формируемой НС. При этом каждое классифицирующее правило однозначно задает структуру соответствующего нечеткого правила, а именно, стороны гиперпрямоугольника, входящего в описание условной части классифицирующего правила, задают нечеткие термы, входящие в описание предусловия нечеткого правила, проекции сторон на признаковые шкалы определяют интервалы локализации нечетких термов на признаковых шкалах, а номер класса разбиения, указанный в заключении классифицирующего правила вместе с соответствующим интервалом разбиения шкалы выходной переменной, задают соответственно нечеткое значение выходной переменной и интервал ее локализации на признаковой шкале.

Этап 2. С целью минимизации числа правил, входящих в БЗ формируемой НС, гиперпрямоугольники, описывающие классы разбиения входных обучающих данных, должны охватывать как можно большие области признакового пространства. Однако использование максимально обобщенных гиперпрямоугольников в классифицирующих правилах может привести к эффекту “переобобщения”, то есть создать ситуацию, когда некоторые примеры входных данных, принадлежащие разным классам разбиения, попадают в одну и ту же область, что в конечном итоге приведет к пересечению областей и нарушит правильность классификации обучающей выборки. Устранить нежелательный эффект от “переобобщения” данных оказывается возможным, если исходить из возможности использования в описаниях правил исключающих признаков и дополнить БЗ специальной группой детализирующих правил. Для реализации этих возможностей на втором этапе обучения в

признаковом пространстве У формируются детализирующие области, находящиеся на пересечении гиперпрямоугольников, описывающих данные из разных

классов разбиения. Детализирующие области в пространстве У представляют собой также прямоугольные области, на основе которых формируется группа детализирующих правил. Стороны гиперпрямоугольников задают уточняющие термы соответствующих нечетких детализирующих правил БЗ, а их проекции на признаковые шкалы - интервалы локализации нечетких термов. Уточняющие термы, будучи включенные в описания обобщенных классифицирующих правил в качестве исключающих признаков, устраняют эффект “переобобщения” и позволяют представлять в признаковом пространстве достаточно сложные области данных, принадлежащие разным классам разбиения, с использованием минимального числа обобщенных и детализирующих правил.

Поясняющий пример. Ниже на рис.1 приведен пример разбиения двумерного признакового пространства с использованием обычных классифицирующих правил и обобщенных классифицирующих правил, в которые добавлены исключающие признаки. Как видно, использование исключающих признаков позволяет сократить число правил, классифицирующих исходные данные, с 7 до 3. Обобщенные правила с использованием детализирующих отличительных признаков имеют вид: (П1) а3 &в3 => ^1, (П2) а/2 &в2 & — (а3 & Д)=> R2, (П3)

а & в & —I (а2 & в2 ) => Я3, где Ю, И2 и Я3 характеризуют классы данных, показанные на рисунке в виде кружков без затемнения, со средним затемнением и с сильным затемнением соотвественно.

а) б)

Рис.1. Примеры разбиения признакового пространства

Этап 3. На заключительном третьем этапе обучения для всех нечетких термов, входящих в структуру БЗ НС, сформированную в результате реализации первых двух этапов, подстраиваются параметры ФП с тем, чтобы обеспечить более точное преобразование, реализуемое НС на границах и внутри интервалов локализации нечетких термов. На этом же этапе осуществляется подстройка параметров операции нечеткого отрицания, используемой для представления в описаниях правил исключающих признаков.

Таким образом, в результате реализации первых двух этапов обучения формируется структура БЗ НС, обеспечивающая преобразование У ^ V с точностью до “попадания” выходной переменной в установленные границы ее интервальных значений, а на третьем этапе осуществляется окончательная оптимизация параметров НС с тем, чтобы обеспечить более точную подстройку реализуемого ею преобразования на границах и внутри интервалов.

Рассмотрим критерии, используемые при реализации описанной выше схемы обучения НС.

На первых двух этапах обучения критерием является минимизация общего числа классифицирующих правил, входящих в БЗ НС, при сохранении ими требуемого уровня интерпретационной пригодности. Уровень интерпретационной пригодности правила зависит, как от общего числа термов, входящих в описание правила, так и той его части, которая используется для описания отличительных признаков. Поэтому при оптимизации структуры БЗ дополнительно к критерию минимума общего числа решающих правил следует ввести ограничение на общее число термов, используемых в описаниях правил, а также ограничение на количество инверсных термов, используемых для представления исключающих признаков. На третьем этапе в качестве критерия выступает среднеквадратичный критерий, характеризующий суммарное отклонение значений выходной переменной, сгенерированных НС, от требуемых значений, заданных в обучающей выборке.

Методы реализации общего подхода. Опишем кратко методы, лежащие в основе реализации приведенной выше схемы обучения.

Для реализации первого этапа обучения НС применяется технология извлечения правил из данных, основанная на использовании специального класса гипер-прямоугольных нейросетей (ГПНС), предложенных в свое время в качестве средства извлечения знаний в системах речевого распознавания [5]. ГПНС представляет собой сеть прямого распространения, которая в процессе обучения порождает необходимое число скрытых нейронов, соответствующих классам разбиения обучающих данных, представленным в виде прямоугольных областей в признаковом пространстве. Проекции сторон гиперпрямоугольников на признаковые шкалы, извлеченные из обученной ИНС, задают обобщенные термы классифицирующих правил, а всевозможные пересечения обобщенных термов, принадлежащие гиперпрямоугольникам описывающим данные из разных классов, задают детализирующие термы.

Второй этап обучения реализуется с использованием технологии формирования понятий на основе растущих пирамидальных сетей (РПС), способных формировать обобщенные описания данных в классе ДКНФ с использованием как прямых, так и инверсных значений признаков [3]. Для этих целей предлагается РПС специального вида, рецепторами которой являются интервальные значения признаков, сформированные на первом этапе обучения, а ассоциативными элементами - всевозможные объединения интервальных значений признаков в коньюнк-

тивные классы, которые формируются в РПС по мере поступления обучающих данных. Формирование оптимальных обобщенных описаний осуществляется путем обучения РПС в два приема. Вначале формируются всевозможные коньюнк-тивные классы термов, соответствующие классам разбиения исходных данных, из которых затем формируется результирующее описание в виде ДКНФ путем повторного обучения РПС по критерию минимума общего числа коньюнктов, входящих в результирующее описание. При этом в качестве ограничений выступают ограничения на число инверсных признаков, используемых в каждом из коньюнктов. Данная задача формулируется в виде задачи поиска минимального покрытия обучающих данных грумами термов таким образом, чтобы каждая из групп покрывала только соответствующей ей класс данных, либо несколько разных классов, используя при этом в качестве исключающих признаков те группы термов, которые являются контпримерами для формируемого класса [6].

Третий этап обучения реализуется с использованием инструментария гибридных нейро-нечетких сетей. В качестве нейро-нечеткой сети предлагается модифицированный вариант стандартной нейро-нечеткой системы, включающий несколько слоев для представления основных этапов нечетко-логического вывода, в которую добавлен дополнительный слой нейронов, реализующих операцию нечеткого отрицания. Связи между нейронами устанавливаются в процессе обучения путем соответствующей подстройки параметров операции нечеткого отрицания аналогично тому, как это делается при оптимизации НС по параметрам нечетких операций 1-норм и 1-конорм в [7].

Заключение. Рассмотренный подход к фор мированию НС с использованием исключающих признаков и детализирующих правил расширяет общие возможности методов нечетко-логического анализа по моделированию сложных процессов и систем и, в частности, возможности моделирования при неполных или сильно искаженных данных.

Использование детализирующих правил и исключающих признаков в структуре правил привносит в НС ряд принципиально новых качеств. Помимо повышения общих выразительных возможностей решающих правил, повышаются адаптационные свойства НС, связанные с появившейся возможностью адаптации параметров НС по параметрам операций, добавленных в описания правил с целью представления исключающих и детализирующих признаков. При этом в максимальной степени может быть использован весь полезный для моделирования потенциал, заложенный в операциях нечеткого отрицания сжимающего и разжимающего типа [7]. Кроме того, появляется возможность эффективного представления в НС единичных сильно искаженных данных, которые, при традиционных методах обучения, попадая в не свои классы разбиения, нарушают возможность их компактного описания. Использование же исключающих признаков и детализирующих правил дает возможность представлять в НС эти единичные “выбросы” в виде автономных единиц, которые по мере работы системы могут оперативно добавляться и исключаться из описания правил, сохраняя в целом высокие обобщающие возможности прямых обобщенных признаков, присутствующих в правилах.

Предложенный поход к формированию НС на основе обобщенного критерия адекватности, одновременно учитывающего точность реализуемого НС преобразования, компактность БЗ и интерпретационную пригодность правил, может быть положен в основу разработки общей методологии оценки адекватности НС, сформированных на основе алгоритмов обучения.

БИБЛИОГРАФИЧЕСКИЙ СПИСОК

1. Лартев О.К Теория подсознательных решающих правил - новый взгляд на экспертное мышление // // Труды 8-й национальной конференции по искусственному интеллекту с международным участием. Научное издание. - М.: Изд-во Физ.-мат. лит., 2002. - С. 1-14.

2. Осипов Г.С. Приобретение знаний интеллектуальными системами. - М.: Наука. 1997. -112 с.

3. Гладун В.П. Планирование решений. - Киев: Наукова думка. 1987.

4. Поспелов ДА. Логико-лингвистические модели в системах управления. - М.: Энергоиз-дат. 1981. - 231 с.

5. Mu-Chun Su, Ching-Tang Hsieh, Chieh-Ching Chin. A neure-fuzzy approach to speech recognition without time alignment. Fuzzy Sets and Systems. 98 (1998), - C. 33-41.

6. Ковалев C.M. Формирование темпоральных баз знаний на основе аппарата растущих

//

интеллекте. Сб. научн. тр. III Международного научно-практического семинара. - М.: , 2005. - . 351-357.

7. . . . - : -

ство, 2001. - 102 с.

ИЛ. Розенберг, Т.А. Старостина ЗАДАЧА РАЗМЕЩЕНИЯ ОБЪЕКТОВ НА КАРТЕ МЕСТНОСТИ С УЧЕТОМ МНОЖЕСТВА РАВНОЗНАЧНЫХ КРИТЕРИЕВ И ЛИНГВИСТИЧЕСКОЙ НЕОПРЕДЕЛЕННОСТИ*

1. Описание постановки задачи и ее модель. Рассмотрим карту местности, состоящую из n альтернативных мест x1,...,xn, предназначенных для размещения каких-

либо объектов. Каждое альтернативное место размещения x¡, i=1,...,n, оценивается на основе множества критериев k = {K1,K2,...,KP}. Оценки альтернативных мест размещения x1,...,xn на основе критериев k1,K2,...,KP являются качественными величинами и описываются значениями (термами) соответствующих лингвистических переменных. Например, лингвистическая переменная «Стоимость» может принимать значения «малая», «большая» и т.п. Задача заключается в выборе наилучших мест для размеще-

X1,... , Xn .

Если имеется P критериев K1, К2,...,KP, то наилучшим считается такое альтернативное место размещения, которое удовлетворяет и критерию Kh и K2, и ., и КР.

Модель задачи размещения объектов на карте местности будет представлять собой набор значений лингвистических переменных, описывающих оценки альтернативного места размещения в соответствии с оптимизируемыми критериями. Такой набор значений, соответствующий альтернативе X, i=1,...,n, называется .

Нечеткая ситуация характеризуется лингвистическими переменными, значения которых имеют различные степени истинности или принадлежности базовому множеству значений [1]:

~ = { (yk)/ Ук)} Ук^ (i)

* Работа выполнена при поддержке РФФИ, грант № 03-07-90202

i Надоели баннеры? Вы всегда можете отключить рекламу.