электронное научно-техническое издание
НАУКА и ОБРАЗОВАНИЕ
_________Эл № ФС 77 - 30569. Государственная регистрация №0420900025. ТББМ 1994-0408_
Исследование погрешности нейросетевой аппроксимации функции предпочтений
# 03, март 2010 автор: Мухлисуллина Д. Т.
УДК 519.6
Введение
Работа является продолжением серии работ, посвященных адаптивным методам решения непрерывной конечномерной задачи многомерной многокритериальной оптимизации (МКО-задачи), основанным на аппроксимации функции предпочтений лица, принимающего решение (ЛПР) [1]. Работа посвящена одному из методов этого класса - методу, основанному на аппроксимации функции предпочтения ЛПР с помощью многослойных персептронных сетей (MultiLayer Perceptron, MLP-сети), а также с помощью нейронных сетей с радиально-базисными функциями (Radial Basis Function Network, RBF-сети). Отметим, что методологической основой аппроксимации функций указанными сетями являются теоремы об универсальной аппроксимации [2].
В первом разделе работы представлена постановка и метод решения МКО-задачи. Во втором разделе рассматриваются особенности нейросетевой аппроксимации функции предпочтения ЛПР. Программная реализация адаптивного метода решения МКО-задачи приводится в третьем разделе. Четвертый раздел посвящен исследованию эффективности нейросетевой аппроксимации функции предпочтения ЛПР. В заключение сформулированы основные выводы и перспективы ее развития.
1. Постановка и метод решения задачи
Формально непрерывную МКО - задачу можно условно записать в виде
ттФ(Х)=ФиҐ)
где 'Рг - ограниченное и замкнутое в я-мерном арифметическом пространстве Л11 множество допустимых значений вектора варьируемых параметров, — —*ФтС?В - векторный критерий оптимальности, ЗС - искомое
решение МКО-задачи. Положим, что частные критерии тем или иным образом нормализованы [1].
Множество достижимости задачи, т.е. множество, в которое векторный критерий оптимальности отображает
множество обозначим . Фронт Парето задачи (1) обозначим Р# , а множество Парето, т.е. множество векторов
которые порождают фронт Парето, обозначим .
Рассматривается метод решения поставленной МКО-задачи, который относится к классу прямых адаптивных методов. В этих методах ЛПР выполняет только оценку, например, в терминах «отлично», «очень хорошо», «хорошо » и т.д. предлагаемых программной системой многокритериальной оптимизации (МКО-системой) решений [3].
D
Метод основан на предположении существования функции предпочтений ЛПР Т! и выполняет его отображение во множество действительных числе Я, т.е.
которая определена на множестве
При этом задача многокритериальной оптимизации сводится к задаче выбора вектора
такого, что
Отметим, что функция предпочтений ЛПР заранее не известна и может быть приближенно сформирована только в
процессе диалога ЛПР с МКО-системой. Предполагается, что при предъявлении ЛПР вектора параметров X, а также
соответствующих значений всех критериев оптимальности , ЛПР может оценить соответствующее
значение функции предпочтений
Задачу (1) решаем методом скалярной свертки. Способ свертки не фиксируется - это может быть аддитивная свертка, мультипликативная свертка, свертка Джоффриона и другие свертки [3].
ОІХЛ) гдеЛєЛА
- множество допустимых значений этого вектора.
Обозначим операцию свертки ¥*\л='-1чг/ где - вектор весовых множителей,
Яа={4| ^>0^4=1
При каждом фиксированном векторе А метод скалярной свертки сводит решение задачи (1) к решению однокритериальной задачи (ОКО-задачи) глобальной условной оптимизации
= <р(Х\А) x^Dx
п.
ФОТОРЕПОРТАЖИ
МГТУ им. Н.Э. Баумана, 105005, Москва, 2-я Бауманская ул. д.5.
(1)
СОБЫТИЯ
Международный форум по образованию "E-Learning Россия: возможности электронного обучения сегодня "
Восьмая открытая всероссийская конференция "Преподавание ИТ в России 2010"
НОВОСТНАЯ ЛЕНТА
14.04.2010
Прайм-ТАСС > Правительство РФ учредило гранты в размере до 150 млн руб каждый для поддержки научных исследований под руководством ведущих ученых в российских вуза
7.04.2010
В МГТУ им. Н.Э. Баумана состоялись выборы ректора. В первом туре голосования большинством голосов победил Анатолий Александрович Александроо
6.04.2010
РБК > В России в конце апреля 2010г. начнется выдача образовательных кредитов по новой программе Минобрнаук
23.03.2010
Российская "Кремниевая долина " будет построена в Сколково
16.03.2010
Третья всероссийская научно - техническая конференция
студентов "Студенческая научная весна 2010:
Машиностроительные технологии "
(2)
В силу ограниченности и замкнутости множества I решение этой задачи существует [3].
Если при каждом решение задачи (2) единственно, то это условие ставит в соответствие каждому из допустимых
векторов Л единственный вектор X* и соответствующие значения частных критериев оптимальности
Пресс-релизы
Библиотека
Конференции
Выставки
Доска объявлений
Архив
Ассоциация технических Университетов Информация о проекте Авторы
Координационный совет
ВХОД
регистрация забыли пароль?
множестве Рг, а на множестве
Это обстоятельство позволяет полагать, что функция предпочтений ЛПР определена не на
цг-.А-ЬR.
В результате МКО-задача сводится к задаче выбора вектора ^ такого, что
тж<р(Л) = <р(Л*) ЛеДА
Поскольку обычно т«П, переход от задачи (1) к задаче (3) важен с точки зрения уменьшения вычислительных затрат.
д.
(З)
Заметим, что если используется аддитивная свертка и множество достижимости * является выпуклым, то выражение (2)
вектор
задает взаимно однозначное отображение множества во множество . В этих условиях для любого вектор X?,
являющийся решением задачи (2), принадлежит множеству Парето . Если вместо аддитивной свертки используется свертка Джоффриона, то для получения того же результата не требуется выпуклость множества достижимости [3].
Величина Ф в работе полагается лингвистической переменной со значениями от «Очень-очень плохо» до «Отлично» (
■ ■
®), где - ядро нечеткой переменной ЧР [1].
А*еЛ
В результате МКО-задача сводится к задаче отыскания вектора функции
, обеспечивающего максимальное значение дискретной
так<КЛ) = <КЛ*) = </ ЛеДл
Общая схема рассматриваемого метода является итерационной и состоит из следующих основных этапов.
Этап «разгона» метода. МКО-система некоторым образом (например, случайно) последовательно генерирует 4 векторов и для каждого из этих векторов выполняет следующие действия:
1) решает задачу однокритериальной оптимизации (ОКО-задачу)
Х<еОт
(4)
(S)
2) предъявляет ЛПР найденное решение ■“* , а также соответствующие значение всех частных критериев оптимальности
3) ЛПР оценивает эти данные и вводит в систему соответствующее значение своей функции предпочтений чрСА*).
Первый этап. На основе всех имеющихся в МКО-системе значений вектора Л и соответствующих оценок
функции предпочтений —ЖА*) мко-система выполняет следующие действия:
1) строит функцию , аппроксимирующую функцию уКА),
2) отыскивает максимум функции
^,(Л)
- решает ОКО-задачу
шак^СЛ) = ИЛ,*) ЛєДл
(б)
3) с найденным вектором решает ОКО-задачу вида (5) - находит вектор параметров и соответствующие значения
частных критериев оптимальности, а затем предъявляет их Л ПР.
ЛПР оценивает указанные данные и вводит в систему соответствующее значение своей функции предпочтений
Второй этап. На основе всех имеющихся в системе значений вектора Л и соответствующих оценок
МКО-система выполняет аппроксимацию функции
функции предпочтений
строит
функцию
^(Л)
и т.д. по схеме первого этапа до тех пор, пока ЛПР не примет решение о прекращении вычислений. На всех этапах ЛПР имеет возможность переоценить ранее введенные им оценки.
2. Особенности нейросетевой аппроксимации функции предпочтения ЛПР
Аппроксимация функции предпочтения ЛПР нейронными сетями имеет в работе ту особенность, что процесс обучения нейронных сетей происходит в условиях малой обучающей выборки. Это обстоятельство обусловлено тем, что количество «разгонных» итераций не должно быть слишком большим, иначе ЛПР просто прекратит процесс вычислений, не получив окончательного решения. Как следствие, для аппроксимации функции предпочтения ЛПР в работе используются только двухслойные MLP и RBF нейронные сети, архитектура которых представлена на рисунке 1.
Рис. 1. Архитектура используемых нейронных сетей: (т - 1) - количество входов сети;
Н - количество нейронов скрытого слоя
£4=1
Поскольку на компоненты вектора весовых множителей Л наложено ограничение ¿-1 , один из весовых множителей
(пусть это будет множитель можно выразить через остальные множители:
. Вследствие этого, в качестве
входов нейронных сетей рассматриваются только компоненты
вектора
Л
ЛПР в процессе решения МКО-задачи может переоценивать результаты предыдущих итераций, указанные им оценки могут быть противоречивы. Это требует постоянной корректировки обучающих данных. В работе была принята следующая стратегия корректировки.
1) Если для текущего вектора имеет место ситуация
К-Л^|| <£, где/<1 и^л^)
ТО вектор А* не
включается в обучающую выборку, а генерируется новый вектор . Здесь
- некоторая положительная константа,
1< ç/<9
символ евклидовой нормы, ■* " ч" - некоторая целочисленная константа. Иначе говоря, если текущий вектор г оказывается слишком «близким» к некоторому вектору из обучающей выборки, и вектору при этом соответствует значение функции предпочтений /1ПР, далекое от решения задачи, то вместо вектора генерируется новый вектор .
Такая стратегия призвана обеспечить выход процесса поиска из точки локального экстремума функции
(Рг(А)
А
аппроксимирующей функцию предпочтений (рис. 2). Величины ®1, ^ являются свободными параметрами алгоритма.
2) Если для текущего вектора г имеет место ситуация
К-Ам||<£2 t<i но ¿(A,)
то из обучающей
выборки исключаются вектор *-t, а также соответствующая оценка
. Здесь ^2
- некоторая положительная
константа, - вектор, содержащийся в текущий момент времени в обучающей выборке. Другими словами, если для двух совпадающих или «близко» расположенных векторов Л заданы не совпадающие оценки функции предпочтений ЛПР, то в обучающей выборке остаются только последний по времени вектор Л и соответствующая оценка функции предпочтений.
Величина ^2 является свободным параметром алгоритма.
Рис. 2. К стратегии корректировки обучающей выборки : лі = 2
3. Программная реализация метода
Средствами известного программного комплекса MatLab 7.0 [4] разработана программа PREF-NNW, реализующая рассматриваемый метод решения МКО-задачи. Реализация нейронных сетей выполнена с использованием функций пакета «Neural Network Toolbox».
Для обучения MLP-сети использовался один из самых эффективных и одновременно простых методов обучения -модифицированный метод обратного распространения ошибки RPROP (Resilent back PROPagation). Отметим, что этот метод
предполагает пакетный режим обучения (batch mode или offline режим), который состоит в том, что корректировка весов нейронной сети производится после обработки всех примеров обучающей выборки (эпохи) [5].
Суть метода, используемого для обучения RBF-сети, состоит в добавлении на каждой итерации в скрытый слой по одному нейрону до тех пор, пока не будет достигнут допустимый уровень ошибки обучения. Максимальное количество нейронов ограничивается размером обучающей выборки.
В качестве функции ошибки обучения для обеих сетей использовалась среднеквадратическая ошибка.
ОКО-задачи глобальной условной оптимизации (5) и (6) решались методом последовательного квадратичного программирования SQP (Sequential Quadratic Programming), из пакета «Optimization Toolbox» программного комплекса MatLab, в комбинации с методом мультистарта (из 100 случайных начальных точек) [4].
Программа PREF-NNW предоставляет в распоряжение ЛПР механизм просмотра и корректировки сделанных им ранее оценок функции предпочтений. Например, ЛПР может понизить или повысить свои оценки, «откатиться» на заданное количество итераций и пр. Для интерактивного взаимодействия программы PREF-NNW с ЛПР реализован графический интерфейс.
4. Исследование эффективности метода
С помощью программы PREF-NNW выполнено исследование погрешности нейросетевой аппроксимации функции предпочтений ЛПР для двух двумерных двухкритериальных задач и одной трехмерной трехкритериальной задачи. В качестве критерия останова было выбрано условие достижения максимума функции предпочтения с максимальной оценкой равной 9. В качестве допустимого уровня ошибки обучения во всех случаях использовалась величина 0.1.
Исследование вышеперечисленных МКО-задач проводилось на MLP-сетях с тремя, пятью, семью, девятью нейронами в скрытом
слое и RBF-сети, которые далее обозначаются NN_MLP3, NN_MLP5, NN_MLP7, NN_MLP9 и NN_RBF, соответственно. Для каждой двухкритериальной и трехкритериальной задачи использовалось три (¿=3) и пять (к= 5) «разгонных» векторов Л.
Напомним, что для двухкритериальной задачи вектор
л=<л.л,=і-Л)
а для трехкритериальнои ■
Приняты следующие обозначения:
■ NN - вариант исследуемой сети (например, Ш_М1Р3, NN. МЬР5 и т.д.);
■ I- количество итераций;
- время обучения нейронной сети, с;
- время оптимизации аддитивнои свертки частных критериев оптимальности, с;
- время оптимизации аппроксимированной функции предпочтения, с;
-оценка математического ожидания величины ;
- оценка математического ожидания величины ■
оценка математического ожидания величины
ЩТ)
- оценка математического ожидания количества эпох, которое потребовалось для обучения исследуемой MLP -
<£ =
г - абсолютная ошибка аппроксимации на /'- ой итерации
Vi-Фі
оценка математического ожидания величины ш ;
- оценка математического ожидания абсолютной ошибки аппроксимации
і *
j-i
где /'- номер итерации, г- размер обучающей выборки на /'- ой итерации;
-оценка математического ожидания величины ;
- максимальное значение абсолютной ошибки, достигнутой на итерациях
где /- номер итерации, ]- номер примера из обучающей выборки,
4.1. Двухкритериальная задача 1:
&(*)=(*-5)’+^+10 &(*) = *?+(*,-5)2+20
Бх={Х\Ь<хі<5,і = \Л}
Заметим, что задача имеет выпуклый фронт Парето (рис. 3).
сети
Рис. 3. Множество достижимости задачи 1
В качестве оптимальных решений ЛПР рассматривал те решения, при которых значения критериев оптимальности принадлежат следующим диапазонам:
2й<фкЦГ)<25 30<ф^Х)<35
Результаты исследования задачи 1 сведены в таблицы 1, 2, которые иллюстрируют рисунки 4, 5.
На рисунках 4, 5 и аналогичных последующих рисунках, если не оговорено противное, приняты следующие обозначения: число рядом с графиком - номер итерации; темный кружок соответствует значению функции предпочтения ЛПР на конечной итерации; белый кружок - значению функции предпочтения ЛПР на промежуточных итерациях, в число которых входят и «разгонные» итерации .
Таблица 1. Результаты исследования задачи 1 при к=3
НС I М(Т) М{ф
Ш_МЬР3 9 1.5 0.7 13.6 5 5.7 0.4 1.4
Ш_МЬР5 5 1.2 1.0 19.2 6 3.4 0.5 1.6
Ш_МЬР7 10 1.5 0.7 15.7 6 1.3 0.4 1.1
Ш_МЬР9 9 1.9 0.8 16.9 5 0.5 0.3 0.9
Ш_кВР 5 1.6 0.3 10.0 - 4.8 0.7 2.8
Таблица 2. Результаты исследования задачи 1 при к=5
НС I М(Т) М{е£ Міф
Ш_МЬР3 7 1.3 10.0 14.9 100 2.3 0.7 1.3
Ш_МЬР5 7 1.0 1.0 14.7 7 2.5 0.5 1.8
Ш_МЬР7 6 1.0 2.0 15.2 12 1.9 0.5 1.9
Ш_МЬР9 7 0.9 2.1 18.2 16 2.3 0.5 1.9
Ш_кВР 6 1.0 1.1 20.0 - 0.9 0.0 0.9
Рис. 4. Результаты исследования задачи 1: МЬР-сеть с 5 нейронами; к=3
ИЛ)
і і І ї 9 і
І 5 і—^
: Г є 4: / 6
ЗІ
і
7jf
1
2
-- '
0.1
А
02 03 04 05 06 07 08 09
Рис. 5. Результаты исследования задачи 1: MLP-сеть с 9 нейронами; k=3 Результаты исследования показывают следующее.
1) Максимальное количество итераций, которое потребовалось для решения задачи 1 при трех «разгонных» векторах Л равно 10, при пяти - 7 итераций.
2) Для MLP-сети при k=3 «разгонных» векторах величина изменяется от ~0.9 до ~1.6. При k=5 эта величина
находится в пределах от ~1.3 до ~1.9, что практически не отличается от результатов, полученных при к=3.
3) При решении задачи 1 на MLP-сетях с числом нейронов в скрытом слое больше 5 начинает сказываться эффект «переобучения» нейронной сети (рис. 5).
4.2. Двухкритериальная задача 2:
/(Л0 = 1+9*2 Д,={ЛГ|0<^<и=1.2}
Задача представляет собой одну из задач стандартного тестового набора для многокритериальной оптимизации [6]. Множество достижимости этой задачи имеет сложную структуру, фронт Парето невыпуклый (рис. 6).
В качестве оптимальных решений в задаче 2 ЛПР рассматривал значения критериев, принадлежащие следующим диапазонам:
-9.6 < фу(Х) < -95 -13 <ф^(Х)< -7.7
Рис. 6. Множество достижимости "♦задачи 2
Аналогично результатам, полученным в задаче 1, результаты исследования задачи 2 сведены в таблицы 3, 4, которые иллюстрируют рисунки 7, 8.
Таблица 3. Результаты исследования задачи 2 при к=3
NN i M(T) iffe) Міф
NN_MLP3 6 2.3 1.6 11.2 14 1.3 0.3 0.9
NN_MLP5 5 1.9 0.7 10.3 4 5.0 0.6 2.5
NN_MLP7 7 2.0 0.6 7.1 5 1.3 0.3 0.6
NN_MLP9 5 1.9 1.5 9.7 10 1.1 0.7 2.6
NN_RBF 6 3.3 0.2 10.3 - 186.9 13.0 64.4
Таблица 4. Результаты исследования задачи 2 при k=5
NN і М(Т) М{ф
NN_MLP3 6 2.0 3.8 19.1 26 0.5 0.2 0.1
NN_MLP5 6 2.2 2.5 15.8 18 0.6 0.3 0.3
NN_MLP7 8 2.32 2.0 13.1 15 7.5 0.9 5.0
NN_MLP9 15 2.0 1.1 19.6 9 7.9 0.4 1.9
NN_RBF 7 2.2 0.3 15.0 - 2.8 0.3 1.8
ИА)
5 1 \ \ ! 5 е:
: у і і .3
і
4:0- -
і 2
1 1
І \ !
1 ;
і і
А
О 01 02 03 04 05 06 07 08 09
Рис. 7. Результаты исследования задачи 2: ИЬР-сеть с 3 нейронами; к=3
Для задачи 2 были проведены дополнительные исследования, в которых оценивалось влияние «разгонных» векторов Л на результаты решения задачи. Проведено три эксперимента при трех различных векторах Л. В качестве нейронной сети, рассматривалась М1_Р-сеть с тремя нейронами в скрытом слое (М[\1_М1_РЗ). Результаты исследования сведены в таблицу 5.
01 02 03 04 05 06 07
Рис. 8. Результаты исследования задачи 2: кВР-сеть; к=3; итерации № 5
Исследование показало, что для рассмотренного набора векторов Л величина изменяется незначительно от ~2.2 до ~4, а величина
Міф
изменяется более существенно - от ~0.4 до ~1.4. Для каждого из рассмотренных векторов Л потребовалось провести от 5 до 7 итераций. Таким образом, как и ожидалось, различные «разгонные» вектора А могут оказывать существенное влияние на ход решения задачи.
Таблица 5. Влияние «разгонных» векторов в задаче 2
№ NN і М{є,) Міф
1 NN_MLP3 5 2.0 5.9 10.8 54 2.2 0.5 1.4
2 NN_MLP3 6 2.0 0.8 12.0 5 4.0 1.5 0.4
3 NN_MLP3 7 1.8 7.0 16.1 70 3.1 0.6 0.4
В целом, по задаче 2 можно сформулировать следующие выводы.
1) Максимальное количество итераций, которое потребовалось для решения задачи при трех «разгонных» векторах равно 7, при пяти «разгонных» векторах - 15. Увеличение количества этих векторов не всегда улучшает результат решения задачи 2.
2) Большая погрешность аппроксимации кВР-сети связана с плохими экстраполяционными свойствами этих сетей (рис. 8).
4.3. Трехкритериальная задача 3:
ф1(^0=(^-5)г+^+^ + 10 = 5)г+^ + 20
ф,т = ^+^+(^,-5)г+5 Д,={Г|0£Ч£51|=иЭ.
Отметим, что данная задача имеет выпуклый фронт Парето.
В данной задаче в качестве оптимальных решений ЛПР рассматривал значения критериев оптимальности, принадлежащие следующим диапазонам:
19 < 4\{Х) < 27 29<ф1(Х)<У1 ЗО<0,(*)<45
Результаты исследования сведены в таблицы 6 и 7. Линии уровня аппроксимирующих функций представлены на соответствующих рисунках 9, 10.
Результаты исследования задачи 3 показывают следующее.
1) Максимальное количество итераций, которое потребовалось для решения задачи 3 при трех «разгонных» векторах равно 13, при пяти векторах - 17.
2) При пяти «разгонных» векторах максимальная ошибка аппроксимации достигнута на кВР-сети, что, как было отмечено выше, связано с плохими экстраполяционными свойствами этих сетей.
3) Решения задачи 3 на МЬР-сетях потребовало больше итераций, чем на кВР-сети (рис. 9, 10).
Таблица 6. Результаты исследования задачи 3 при ^ = 3
NN I M(T) М{ф
NN_MLP3 7 1.0 1.0 35.9 10 2.9 0.4 1.2
NN_MLP5 13 1.2 2.9 20.6 22 4.0 0.4 1.2
NN_MLP7 13 1.1 3.5 43.3 31 4.0 0.5 1.6
NN_MLP9 8 1.0 0.4 39.8 3 0.6 0.3 0.5
NN_RBF 5 1.1 0.3 32.9 - 2.1 0.3 1.1
Таблица 7. Результаты исследования задачи 3 при fc — 5
NN I M{T) i/fe) М{ф
NN_MLP3 17 1.2 6.1 41.0 50 3.8 0.3 1.2
NN_MLP5 7 1.3 1.8 28.9 12 2.3 0.5 1.6
NN_MLP7 13 1.2 1.4 17.4 11 4.9 0.3 2.4
NN_MLP9 8 1.2 1.5 35.4 10 2.4 0.5 1.8
NN_RBF 7 1.1 0.3 21.4 - 97.7 8.5 51.1
09
07
05
0.4
03
01
V, : о r NX*
03 j-' i N
V \ \: N . « V
iS* N.
02 \ i \
ir #5 l....
\ ]
N.
: Vy : > <1
£ *1 r " L I 01
DJ
02 03 04 0.5 06 0.7 08 09
1
А
Заключение
Рис. 9. Результаты исследования задачи 3: RBF-сеть; k=3
Исследование погрешности нейросетевой аппроксимации функции предпочтений ЛПР показало, что для решения двухкритериальной задачи наиболее подходящими являются MLP-сети с тремя и пятью нейронами в скрытом слое, а для трехкритериальной задачи - MLP-сеть с пятью нейронами. Для двухкритериальной задачи достаточным оказалось три «разгонных» вектора, для трехкритериальной задачи - пять векторов. Все сети, обеспечили нахождение максимума функции предпочтений. Максимальная ошибка аппроксимации была получена на RBF-сети, что связано с плохими экстраполяционными свойствами этих сетей.
Рис. 10. Результаты исследования задачи 3: MLP-сеть с 7 нейронами; k=5
В развитии работы предполагается сравнить эффективность нейросетевой аппроксимации функции предпочтений с эффективностью аппроксимации этой функции симплекс - планами, регрессионными планами второго порядка, а также нечеткими функциями. Кроме того, планируется сравнить эффективность рассматриваемого метода с эффективностью других адаптивных методов решения МКО-задачи (например, метода, реализованного в известной МКО-системе NIMBUS [7]), а также провести апробацию метода на реальной, практически значимой МКО-задаче.
Автор сердечно благодарит своего научного руководителя д.ф.-м.н., профессора МГТУ им. Н.Э. Баумана Карпенко А.П. за всестороннюю помощь и поддержку в процессе работы.
Литература
1. Карпенко, А.П., Федорук, В.Г. Адаптивные методы решения задачи многокритериальной оптимизации, использующие аппроксимацию функции предпочтений лица, принимающего решения // Наука и образование: электронное научно-техническое издание, 2008, 8, (http://technomag.edu.ru/doc/l01804.html).
2. Хайкин, С. Нейронные сети. Полный курс.- М.: ООО «И.Д.Вильямс», 2008.- 415 с.
3. Лотов, А.В. Введение в экономико-математическое моделирование. - М.: Наука, 1984.- 392 с.
4. The MathWorks. Documentation. Documentation for MathWorks products, R2009b. Режим доступа: http://www.mathworks.com/access/helpdesk/help/helpdesk.html, свободный.
5. Riedmilller, M. and Braun, H. A direct adaptive method for faster backpropagation learning: The RPROP algorithm. In Proceedings of the IEEE International Conference on Neural Networks 1993 (ICNN 93), San Francisco - USA, 1993, p. 586-591.
6. Лобарева, И.Ф. и др. Многоцелевая оптимизация формы лопасти гидротурбины // Вычислительные технологии, Том 11, №5, 2006, С.63 - 76.
7. Карпенко, А.П., Федорук, В.Г. Обзор программных систем многокритериальной оптимизации. Отечественные системы //Информационные технологии, 2008, №1, С. 15-22.
Публикации с ключевыми словами: аппроксимация, многокритериальная оптимизация, нейронные сети Публикации со словами: аппроксимация, многокритериальная оптимизация, нейронные сети Смотри так же:
• Аппроксимация функции предпочтений лица, принимающего решения, в задаче многокритериальной оптимизации. Методы на основе планов первого порядка
• Разработка модуля однокритериальной оптимизации для системы многокритериальной оптимизации «Парето»
I многокритериальной I
Исследование точности аппроксимации функции предпочтений лица, принимающего решения, в задаче многокритериальной оптимизации с помощью аппарата нечетких множеств.
Тематические рубрики:
• Наука в образовании: Электронное научное издание
Ассоциация технических Университетов Вузы
Информационное агентство
Координационный совет Новости УМО Вузов
телефон (8499) 263-68-67 ; Rss
Q STÜCK GROUP
© 2003-2010 «Наука и образование: электронное научно-техническое издание»