Научная статья на тему 'Особенности использования генетических алгоритмов при обучении перцептронов'

Особенности использования генетических алгоритмов при обучении перцептронов Текст научной статьи по специальности «Математика»

CC BY
201
56
i Надоели баннеры? Вы всегда можете отключить рекламу.
i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Особенности использования генетических алгоритмов при обучении перцептронов»

ляции (диффузия) и проблема попадания в "локадьную яму" становится менее острой.

Выводы. Эволюционные алгоритмы найменее подходят для решения оптимизационных проблем, если:

1. Требуется найти глобальный оптимум.

2. Имеется эффективный неэволюционный алгоритм оптимизации.

3. Переменные, от которых зависит решение, можно оптимизировать независи-

.

4. Для задачи характерна высокая степень эпистазии, т.е. взаимозависимость между переменными оптимизации такова, что одна переменная подавляет

.

5. Значения целевой функции во всех точках, за исключением оптимума, являются приблизительно одинаковыми.

Принципиально подходящими для решения с помощью ЭА являются следующие оптимизационные проблемы:

1. -ми, для которых, по-существу, нет подходящих неэволюционных методов .

2. .

3. .

4. .

5. Задачи прогнозирования и распознавания образов.

ЛИТЕРАТУРА

1. Курейчик В.М. Генетические алгоритмы. Обзор и состояние // Новости ИИ. 1998. №3. С.14-63.

2. Nissen V. Einfurhrung in Evolutionare Algorithmen. - Braunschweig: Vieweg. - 1997.

3. . . -

го программирования // Новости ИИ. 1999. №3.

4. Wolpert D.H., Macready W.G. No Free Lunch Theorems for Search // Operations Research. -Santa Fe Institute, 1995.

5. Куре йчик В.М. Генетические алгоритмы. Состояние. Проблемы. Перспективы // Известия РАН ТиСУ. 1999. №1.

6. Angeline P.J. Evolutionary Algorythms and Emergent Intelligence // Diss., Ohio St.Uni, Columbus. 1993.

7. Koza J.R., Andre D. Parallel Genetic Programming on a Network of Transputers // Technical Report, Stanford Uni. 1995.

8. Cantu-Paz E. A Summary of Research on Parallel Genetic Algorithms // IlliGAL Report 95007, Uni of Illinois, Urbana-Champaign. 1995.

УДК 658.512

Ю.В. Чернухин, М.А. Беляев ОСОБЕННОСТИ ИСПОЛЬЗОВАНИЯ ГЕНЕТИЧЕСКИХ АЛГОРИТМОВ ПРИ ОБУЧЕНИИ ПЕРЦЕПТРОНОВ

.

решать трудноформализуемые задачи, относящиеся к области искусственного интеллекта [1]. Важной особенностью таких сетей является их способность к обуче-

нию, т.е. к автоматической настройке внутренних параметров в соответствии с ре.

подаваемых на входы отдельных нейроэлементов или нейропроцессоров сигналов на соответствующие данным входам синаптические веса. Суть обучения при этом заключается в нахождении набора требуемых значений синаптических весов при помощи тех или иных алгоритмов. Однако алгоритмы обучения, как правило, являются специфичными для каждой конкретной нейросетевой парадигмы и не всегда применимы к другим нейронным моделям. Кроме того, зачастую они обладают , -ских весов в локальный экстремум ошибки или в область ее насыщения.

Один из методов решения данных проблем состоит в использовании генетических алгоритмов (ГА), представляющих собой механизм стохастического направленного поиска [2,3]. Преимуществом ГА является их слабая связь со структурой решаемой задачи, что дает возможность их применения к различным нейросе-. ,

избежания остановки процесса поиска в локальных минимумах ошибки.

В настоящее время существует большое количество различных подходов к задаче обучения искусственных нейросетей (ИНС) с помощью ГА [4]. Однако устоявшегося подхода к этой проблеме еще не существует. В связи с этим важным является проведение сравнительного экспериментального анализа влияния основных параметров ГА на процесс обучения ИНС и выявления лучших их вариантов. Модель генетического алгоритма. Генетический алгор итм работает с набо-

, ( ), где каждое решение называется особью (родительские особи - РО). Решение кодируется битовой строкой, называемой хромосомой. На каждом шаге поиска особи ( ),

( ), ( ). -ции (ОС) отбираются лучшие решения для дальнейшего поиска. При оценке для каждой особи находится значение функции фитнесса, характеризующего ее пригодность для искомого решения [2], [3].

В операторной форме простой генетический алгоритм (ПГА) можно описать следующим образом:

1. 1 = 1, где 1 - номер текущего шага поиска.

2. РП;=РП0 - инициализация, как правило, случайным образом;

3. 1= [ ( 1)] - -

( ) ( );

4. Оценка решений, т.е. нахождение для каждой ДО^ из ДП1 значения функции фитнесса % где у = 1, N , N - число особей в популяции.

5. , ,

останов алгоритма и выдача полученного решения. Иначе - следующий шаг;

6. РП^ОС^Ц + ДП1) - формирование новой родительской популяции;

7. 1 = 1 + 1. Переход к п.3;

В качестве нейросетевой парадигмы выбрана модель многослойного перцеп-, -

роиства, решающего одну из важнейших задач искусственного интеллекта - задачу распознавания образов.

Методика проведения экспериментов. Обучение перцептрона является обучением с учителем. Поэтому всегда может быть оценена величина ошибки ней-росетевого решения. Функция фитнесса для каждой особи при этом вычисляется , . -смотренных операций ГА производится до тех пор, пока не будет найдено реше-, , количество шагов поиска решения не превысит априори заданного предела. В последнем случае считается, что решение не найдено.

В качестве тестовой задачи в данной работе использована задача тройной четности. Ее суть состоит в том, что необходимо разделять трехзначные двоичные числа на два класса - с четным числом единичных битов и с их нечетным числом. Значения битов числа составляют компоненты входного вектора. Выход сети при этом равен 1, если число единичных битов нечетное, и 0, если оно четное.

Нейроны сети имеют знаковую активационную функцию, принимающую

0 1 - . -можность использования такой функции является одним из преимуществ ГА перед градиентными методами обучения, требующими, чтобы активационная функция нейронов была дифференцируемой (например, в случае использования метода обучения с обратным распространением ошибки).

Параметры генетического алгоритма. В данной работе для сравнительной оценки выбраны несколько модификаций следующих параметров ГА: стратегия селекции; метод отбора решений; вид оператора кроссовера;

Такие параметры ГА, как вероятность мутации, размер популяции и формат кодирования хромосом оставались неизменными для всех экспериментов.

Для каждой из рассматриваемых модификаций проведено по 20 сеансов обучения на задачу тройной четности со случайными начальными условиями. В качестве показателей эффективности взяты:

1. , . . , 1000 ;

2. .

Искомый набор синаптических весов был представлен битовой строкой (хромосомой), условно разделенной на участки одинаковой длины (участки хромосо-), -ичное представление знакового вещественного числа с фиксированной точкой. На целую и на дробную части было отведено по 5 и 15 битов соответственно (рис.1).

Рис.1 Формат кодирования синаптических весов; ^п - п-й синаптический вес, 5 -знаковый бит, хк -к-й бит числа

100.

10%. Такое достаточно большое значение взято в связи большим количеством локальных минимумов в данной задаче и низкой способностью алгоритма избегать их при помощи других генетических операторов.

Модифицированные генетические операторы. Эксперименты показали, что эффективность оператора кроссовера, применяемого к хромосоме как к единой , . -щейся интенсивностью изменения значений синаптических весов. С целью преодоления данной трудности оказалось целесообразным применять операторы му-( ) ( ) , участку в отдельности, т.е. так, как это показано на рис.2, где стрелки обозначают

.

Рис.2. Модификация оператора кроссовера

В данной работе размеры участков выбраны равными размеру участка, описывающего отдельный синаптический вес. Такой подход дал ощутимый выигрыш по сравнению с исходным способом применения операторов ОМ и ОР. Не исключено, что возможно и другое более оптимальное разбиение. Однако выяснение этого обстоятельства требует проведения дополнительных исследований.

Все описанные далее эксперименты были проведены с использованием предложенной модификации метода применения операторов мутации и рекомбинации. Попытки обучать перцептрон, не применяя описанный подход, практически на 100% . .

. -вания новой популяции (шаг 6 в операторном описании ПГА). Широко известны два способа ее формирования - с участием родительских особей и без их участия [3].

В первом случае в отборе участвуют как родительская, так и дочерняя популяции. Именно такому подходу соответствует запись вида РП^ОС^П^ДПО. При этом процесс поиска сходится весьма медленно, что связано с возможностью присутствия в новой популяции старых неизмененных решений. Также довольно медленно в данном случае происходит и выход из локальных минимумов ошибки.

Во втором случае отбор ведется только на основе дочерней популяции, т.е. РП;+1=ОС(ДП;). Процесс поиска при этом сходится быстрее. Такой алгоритм быстрее находит локальные минимумы, но и быстрее их покидает.

Эксперименты показали предпочтительность второго варианта, т.е. варианта формирования новой популяции на основе только дочерних особей.

Метод отбора решений. Метод отбора решений определяет процедуру выбора особей в новую популяцию на основе их оценки. Широко известны два таких метода - «рулетки» и «^рнира» [2, 3].

Принцип «рулетки» заключается в том, что оценка каждой особи интерпретируется как вероятность ее выбора. При этом, если оценки нескольких решений раз, -, .

, « », . -чайно выбираются две или более особи. Причем в новую популяцию попадает та , . -бор особей с наилучшими оценками, но лишь в том случае, если они попадают в число выбранных для турнира. В данной работе число участвующих в турнире особей принято равным двум.

, « », -ся в процедуре селекции [3]. Его суть состоит в том, что значения фитнесса всех

0 2. , -рых получившееся значение больше единицы, сразу копируются в новую популя-, -дами «рулетки» или «^рнира». Такой подход гарантирует выбор решений с наи.

Варианты оператора кроссовера. В данной работе оценивается эффективность использования одноточечного, двухточечного и равномерного кроссовера [2, 3]. , -

сивность изменения синаптических весов. Это, однако, означает и максимальную степень разрушения уже имеющихся решений.

.

обучения ИНС все-таки подвержен хоть и не бесконечным, но довольно длительным остановкам в локальных минимумах ошибки. Связано это как с характером активационной функции нейронов, с особенностями двоичного кодирования веще, , -жающим эффективность оператора кроссовера. Для выхода из локальных минимумов могут понадобиться принудительные изменения свойств особей популяции. Обеспечить такие изменения может оператор мутации.

При попадании в локальный экстремум интенсивность мутаций целесообразно повышать с тем, чтобы популяция получала возможность перехода в новую область за пределы локального экстремума. В данной работе реализован именно такой механизм изменения вероятности мутации. Его принцип состоит в следующем. Весь процесс поиска условно делится на этапы, включающие определенное количество шагов поиска. На каждом этапе находится уровень развития популяции, т.е. среднее значение фитнесса всех особей. Если это значение на текущем этапе отличается от предыдущего менее чем на определенный процент, в течение нескольких следующих шагов производится скачек вероятности мутации, после чего она возвращается к прежнему значению.

Качественно такой процесс представлен в виде кривых, показанных на рис. 3, где кривая Б показывает характер изменения среднего по популяции фитнесса, а кривая М иллюстрирует изменения вероятности мутации.

При проведении экспериментов

Уровень М Г

1 длительность отдельного этапа про-

цесса поиска составляла 100 шагов, Р" длительность скачка интенсивности

мутации - 40 шагов, величина скачка составляла 100%, что соответствует максимальной интенсивности. При этом скачек производился, если теку----------------1 1---------М щий уровень развития отличался от

-----------------------------------► предыдущего менее, чем на 30%. При-

Время веденные величины шагов и вероятно-Рис.З. Характер изменения гентально и дали лучший результат по

вероятности мутации М и его влияние ,уТации на изменение среднего фитнессе р ^ оцеши эффект1ш110ст„ модиф„„ций

1 р *1иИЛ^1У1и1Л 11Ы.|^Ы.1У1^ 1 111 иии!и .^следовано несколько вариантов алгорит-

ма, различающихся значениями этих параметров. Для каждого варианта была проведена серия экспериментов по обучению нейросети решению задачи тройной четности с различными начальными значениями весов. В результате каждого варианта набора параметров ГА были получены средняя скорость обучения и число удачных .

При выявлении лучших вариантов параметров ГА прежде всего учитывалось количество успешных попыток и лишь затем оценивалась средняя скорость обучения. Проведенные эксперименты позволяют сделать следующие выводы:

1.

.

2. « » ,

основе рулетки при обычном отборе, т.е. без использования «переноса с ос».

3. « » -

, « ». -следнем случае наилучший результат дает нормализация по максимальному . , -ципа отбора и турнирного выбора, схожи с результатами комбинации второго

« ». .

4. Вариант одноточечного кроссовера дает лучшие результаты и является наи-

.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

5.

.

Заключение.Лучшими являются следующие из рассмотренных при проведении экспериментов варианты параметров ГА:

♦ стратегия селекции без участия родителей;

♦ одноточеч ный кроссовер;

♦ турнирный выбор вместе с обычным переносом или выбор рулеткой при «пе-

»;

♦ использование предложенной модификации способа применения операторов кроссовера и мутации (условное разбиение хромосомы на участки);

♦ использование принципа адаптив ного изменения вероятности мутации.

ЛИТЕРАТУРА

1. Чернухин Ю.В. Нейропроцессорные сети. Таганрог: Изд-во ТРТУ, 1999. 439с.

2. Курейчик В.М., Лебедев Б.К, Нужное Е.В. Учебное пособие по курсу «Генетические методы оптимизации». М. 1996. 132с.

3. Whiltey D. A Genetic Algorithm Tutorial // Statics and Computing, vol. 4. 1994, c. 65-85

4. Whitley D. Genetic Algorithms and Neural Networks // Genetic Algorithms in Engeneering and Computer Science, 1995. C.203-216.

УДК 681.3.016

В.В. Курейчик1

ПРИНЯТИЕ РЕШЕНИЙ С ИСПОЛЬЗОВАНИЕМ МОДЕЛИ СОВМЕСТНОЙ ЭВОЛЮЦИИ ДАРВИНА И ЛАМАРКА

Известно, что раньше теории эволюции Дарвина (ЭД) о естественном отборе Ламарк предложил многогранную теорию эволюции [1,2].Она основана на понятии, что характеристики, приобретенные организмом в течение его жизни, наследуются его потомками. Ламарк предположил это как средство, через которое организм передает специальные черты для выживания в среде и это положение известно как теория эволюции Ламарка (ЭЛ) или Ламарксизм [1]. Хотя ЭЛ не используется в биологии, она является мощной концепцией искусственной эволюции, применимой в технике. Автор предлагает использовать принципы совместной ЭД и ЭЛ для построения интеллектуальных иерархических систем (ИИС) и решения оптимизационных задач (03) принятия решений (ПР). Подобно жизни в естествен-( ), -пов и фенотипов. В случае, когда генотипы является своими собственными фенотипами, не требуется преобразований между ними. Это полное вовлечение, по ЭЛ, позволяет оптимизировать фенотип для решения конкретных проблем среды. Эта оптимизация отражается в соответствующем генотипе для последующего наследования потомками. Следовательно, проблемы, с которыми сталкивается ЭЛ в природе, решаются в генетических алгоритмах (ГА) [1]. ЭЛ обычно дает локализованный поиск форм в пространстве структур фенотипов. Локализованный поиск Ламарка более подходит для исследования локальных областей популяции в отличие от глобального перебора ГА. Согласно [1] ЭЛ оказывается наиболее эффективной, когда популяция имеет сходимость в область локального минимума в отличие от .

Предлагается совместный алгоритм, основанный на ЭД и ЭЛ. ЭД реализована в виде ГА, в который встроен алгоритм ЭЛ. Он содержит элемент Ламарка (Шкала, G). Шкала - это действительное число от 0 до 1, определяющее процентное соот-

1 Работа выполнена при поддержке РФФИ, грант №00-01-00050

i Надоели баннеры? Вы всегда можете отключить рекламу.