При построении НС на основе МГУА выборка данных делилась в пропорции 3:1, оптимальная модель получалась в первом слое сети и имела среднюю относительную ошибку на контрольной последовательности 30% (рис. 3б). Построение прогностической модели для среднего стока с пятидневным упреждением оказалось более сложной задачей, полученные средние ошибки прогноза составили 55%, 50% и 38% для моделей линейной регрессии, МСП и МГУА соответственно.
3 ЗАКЛЮЧЕНИЕ
Предложенный метод поиска функциональных зависимостей между компонентами вектора состояния природной системы даже на ограниченных выборках данных позволяет находить решение с ошибкой, не превышающей 25-35% от среднеквадратического отклонения искомой переменной. Вопросы использования НС в моделировании экологических и экологоэкономических систем требуют дальнейшей разработки, поскольку такой подход является безусловно перспективным. Это подтверждается множеством примеров успешного использования НС в других областях, сходных по ряду признаков с экологическим моделированием, а также опытом применения НС в гидрологии и океанологии. Приведенные в работе примеры построения регрессионных моделей иллюстрируют лишь одно из возможных применений НС в моделировании сложных систем.
ПЕРЕЧЕНЬ ССЫЛОК
1. Беляев В.И., Кондуфорова Н.В.., Математическое моделирование экологических систем шельфа. - Киев, "Наукова думка", 1990, 240с.
2. Заенцев И.В. Нейронные сети: основные модели. - Изд. Воронежского ун-та, 1999, 76с.
3. Muller B., Reinhardt J. Neural Networks. An Introduction. -Berlin, Springer-Verlag, 1991, 266c.
4. Arena P., Caponetto R., Fortuna I., Xibilia M. (M.L.P.) Optimal Topology via Genetic Algo-rithms // Proceedings, International Conference on Artificial Neural Nets and Genetic Algorithms, 1993, P. 670- 674.
5. Miller G., Todd P., and Hegde S. Designing Neural Networks Using Genetic Algorithms // Proceedings, Third International Conference on Genetic Algorithms, 1989, P. 379- 384.
6. Stepniewski S. and Keane A. Topology Design of Feed-Forward Neural Networks // Proceedings, Parallel Problem Solving from Nature, 1996, P. 771- 780.
7. Maniezzo V. Genetic Evolution of the Topology and Weight Distribution of Neural Networks // IEEE Transactions on Neural Networks, 1994, Vol. 5, №1, P. 39- 53.
8. Pujol J. Evolution of Artificial Neural Networks Using a Two-Dimensional Representation. - Ph.D. Thesis, School of Computer Science, University of Birmingham, 1999. 177p.
9. Ивахненко А.Г. Самоорганизация прогнозирующих моделей. - Киев, "Техника", 1985, 223с.
10. Ивахненко А.Г.. Системы эвристической самоорганизации в технической кибернетике. - Киев, "Техника",1971, 372с.
11. Beasley D., Bull D.R., Martin R.R., An Overview of Genetic Algorithms: Part I, Fundamentals // University Computing, 1993, 15, №2, P. 58-69.
12. Beasley D., Bull D.R., Martin R.R., An Overview of Genetic Algorithms: Part II, Research Topics // University Computing, 1993, 15, №4, P. 170-181.
13. Банк данных МГИ НАН Украины. URL: http:// www.mhi.iuf.net/DEPTS/.
14. Обработка данных океанографической станции. Сост. ред. коллегией ОГОТС. - ЮНЕСКО-МГИ, Севастополь, МГИ, ISBN 5-7702-0643-8, 1991, 87с.
15. Lu Z.Q., Berliner L.M. Markov Switching Time Series Models with Application to Dailly Runoff Series // Water Resour. Res., 1999, V.35, № 2, P. 523-534.
удк 519.2
МОДЕЛИРОВАНИЕ ПРОЦЕССА ОБУЧЕНИЯ
А.И.Вершина, Б.Т.Солдатов
Запропонована модель процесу навчання, яку засновано на припущеннг, що гмовгртсть одержання знань в нескгнченно малому промгжку часу пропорцшна розмгру цього промгжку. Розглянуто умови, при яких навчання можна описати як маркгвський процес. Отримано формули для очгкуваних витрат часу на навчання та 'ixrn дисперсИ.
Предложена модель процесса обучения, основанная на предположении, что вероятность получения знаний в бесконечно малом промежутке времени пропорциональна размеру этого промежутка. Рассмотрены условия, при которых обучение можно описать как марковский процесс. Получены выражения для ожидаемых затрат времени на обучение и их дисперсии.
The mode of process of training based on the assumption is offered that the probability of reception of knowledge in infinitesimal an interval of time is proportional to the size of this interval. The conditions are considered, at which training is possible to describe as process of Markov. The expressions for expected expenses of time for training ad them dispersion are received.
ВВЕДЕНИЕ
Эффективность обучения зависит от многих факторов. Поиск новых методов обучения является в настоящее время актуальной задачей. Наряду с этим, возникает проблема определения целесообразности введения новых методов в конкретных условиях. Эта проблема связана с необходимостью создания математической модели процесса обучения. В данной работе предлагается один из возможных путей создания этой модели.
ПОСТАНОВКА ЗАДАЧИ
Процесс обучения состоит в усвоении определенного объема знаний по некоторой дисциплине. Его можно разбить на два этапа, первый из которых состоит в передаче информации обучающемуся, а второй - в проверке результатов усвоения материала с целью определения достигнутого уровня знаний и, в случае необходимости, повторной передаче обучающемуся не усвоенной им информации. Результаты выполнения
этапов зависят от многих субъективных и объективных факторов и, в общем случае, представляет собой случайный процесс.
Если считать, что существует оценка качества усвоения знаний как вероятность того, что данный материал усвоен, и оценка качества проверки знаний как вероятность того, что в процессе проверки выявлен достоверный уровень знаний, то процесс обучения можно описывать вероятностными характеристиками. Это позволяет поставить задачу построения математической модели процесса обучения как случайного процесса.
МЕТОДЫ РЕШЕНИЯ
Пусть вероятность Дк( t) усвоения элемента знаний в малом промежутке времени Дt пропорциональна величине этого промежутка, то можно записать
Дк(0 = к(t + Д) - к(t) = [ 1 - к(t)]1Дt,
(1)
йк{^ = [ 1 - к(t)]1 dt ,
(2)
Т Т ! К (Т) = \р (t )Л = 1а - 1 е Лй.
0 0 Ожидаемое время на усвоение знаний равно
1 а
Тус = М ^ А = Л^Л = а
(6)
Г(а)-1
о о
1
(7)
Как правило, время на обучение То ограничено, и оно пропорционально ожидаемому времени на усвоение знаний Тус :
а
То = т Тус = т х,
где т " коэффициент пропорциональности. В этом случае имеем
(8)
где к (t) - вероятность того, что элемент знаний за время Ь усвоен;
1 - коэффициент пропорциональности, который отражает интенсивность усвоения знаний.
Переходя к пределу Дt ® 0 , получим дифференциальное уравнение
К(Т0) = | р (t) dt = | 1а 1 е 1
(9)
После внесения 1 под знак интеграла, замены переменной г = 11 и изменения пределов интегрирования получим
решение которого имеет вид
К ( Т0 ) =
1 та а-1
Г(а)
г
е dz = К(т, а)
(10)
к (t) = 1 -е
-11
(3)
Плотность распределения времени усвоения элемента знаний определяется выражением
Рк( ^ =
= Ак(р = 1 е -1 ?
dt
(4)
то есть подчиняется экспоненциальному закону.
Усвоение определенного объема знаний, представляющего собой совокупность а элементов знаний приводит к композиции законов распределения элементов знаний. Так как показательная плотность является частным случаем гамма-распределения [1, 2], а семейство гамма-плотностей замкнуто относительно операции свертки, то плотность распределения времени на усвоение некоторого объема знаний имеет вид
р (о =
1°
Г(а)
а - 1 -11 -/ е ,
(5)
Из этого следует, что вероятность усвоения знаний в случае выделения времени на обучение пропорционально
ожидаемому времени Т не зависит от значения 1.
Если за заданное время Т0 объем знаний не усвоен, то
необходимо дополнительное время Тд на усвоение. Это время разумно также выделять пропорционально ожидаемому времени на усвоение знаний. Если считать, что усвоение знаний в одинаковой мере затрагивает каждый элемент знания, то количество элементов а останется прежним, а изменится значение 1. В соответствии с полученным выражением (10), вероятность усвоения знаний за дополнительное время не изменится. Можно также сказать, что время, выделяемое на усвоение определенного объема знаний, определяется заданным уровнем качества обучения.
Оценим ожидаемое дополнительное время Тд , которое необходимо выделить на усвоение материала:
где Г(а) = 1 е 1dt - гамма-функция Эйлера.
Для произвольного времени Т, затраченного на усвоение определенного объема знаний, вероятность К( Т) усвоения знаний определяется выражением
Тд = | (t - Т0 )р (t) dt = Гт-т | (t - Т0 ) tа - 1 е_1 tdt =
Г(а)
Г(а) ■
| /а е-1 tdt - Т0 | У 1 е 1 tdt
0
0
Используя для первого слагаемого в квадратных скобках метод интегрирования по частям, вводя функции
и = ^ и Ау = е~1tdt, для которых имеем Аи = ata- 1dt и 1
у = | е-1 tdt = -1 е-11:, с
учетом
того,
1с
Г(а)
1 е 11dt = 1 - K( Г0) , получим
Следует отметить, что на практике вероятность качественной проверки усвоенного и неусвоенного знания дает различные значения, поэтому целесообразно для проверки не усвоенного знания ввести вероятность
А (Тп) . Величина А (Тп) близка к единице, то есть при проверке усвоенного знания получается достоверный результат.
Ожидаемое время на проверку знаний определяется выражением
t = 1 д =Г(а)
° 1 111¥ , ° Г а -1 -1t , „ с а -1 -°_,-яг| + _ J, , dt - то J, ,
-Xf
1а т° 1е 'T0 + f?" т\[ 1 - K(т0)].
Г(а) 0 Г ^
dt
(12)
Подставляя T о из формулы (8) в данное выражение, получим
T д =
1° 1Г а а -1mf
Г(а) 1 г1
а
+(1 - m)1
1 - к hi
11Га)(та)ае-ma + (1 - m)°[ 1 - к (m, а)].
(13)
тод = ттд
(14)
5 =TT^ = -
тд
= ( m а) °
m -m° + (1-и)°[ 1- к (m, а)
а
Г(а+1)
е-mа + (1 - m)[ 1 - к(m, а)].
(15)
А(Тп) = J p(t)dt = j1^ J /а- 1 е~Ktdt . (16)
Тож.п = Jtp(t)dt = ^Л-т J'Ие^'dt = а , (17)
Г(а)-1
о о
где 1п - интенсивность проверки знаний.
Время Тп , выделяемое на проверку знаний, берется по аналогии с (8) пропорционально ожидаемому времени
Тож.п , то есть
т = m т
п п ож.п
(18)
где тп - коэффициент пропорциональности при выделении времени на проверку знаний.
Качество проверки знаний определяется выражением
Будем считать, что дополнительное время выделяется также пропорционально ожидаемому времени, то есть,
4 (Тп) = По) i
m па
1 с а - 1 -z
dz .
(19)
о
Отсюда отношение 5 дополнительного времени на усвоение материала к времени, выделенному на первоначальное усвоение, равно
Отношение дополнительного времени на проверку усвоенного материала к времени, выделенному на первоначальную проверку знаний, равно
(m п °)с
5 п Г(а+1У
- m па
+ (1 - m п)[ 1 - а (m п, а)].
(2о)
Из полученного выражения следует, что отношение дополнительного времени на обучение к первоначально выделяемому времени будет постоянной величиной, если считать, что m = const и а = const.
Аналогичные рассуждения приводят к выражению для качества проверки знаний как вероятности А (Тп) того, что в результате проверки в течение времени Тп получен достоверный результат об усвоенном знании:
В основе описанной модели лежит гипотеза о гамма-распределении времени получения знаний. Проверка этой гипотезы в реальных условиях встречает определенные трудности.
В данной работе ограничимся простейшим процессом получения знаний, в основе которого лежит запоминание некоторой последовательности символов. Испытуемым предлагалось запоминание наборов символов с регистрацией времени запоминания. Карточка с наборами символов показывалась испытуемому, который после просмотра символов заявлял об их запоминании. После этого карточка переворачивалась, фиксировалось время Т1, и испытуемый пытался воспроизвести этот набор символов. В случае, когда воспроизведение выполнялось с ошибкой, карточка вновь предоставлялась испытуемому, и выделялось дополнительное время, в течение которого он вновь заявлял о готовности воспроизведения, и т.д.
Реализация подобного процесса не представляет особых трудностей и позволяет получить достаточно большой статистический материал. Результаты 100 экспериментов по запоминанию случайных наборов символов, получаемых программой генерации паролей из 5 символов, сведены в таблицу 1.
о
о
Таблица 1 - Время запоминания наборов символов
№ - с № - с № - с № - с
1 23.1 26 8.4 51 33.7 76 9.8
2 11.4 27 8.0 52 9.0 77 9.9
3 9.3 28 7.6 53 22.0 78 3.5
4 9.1 29 20.4 54 10.2 79 10.1
5 8.3 30 15.7 55 17.2 80 8.9
6 15.2 31 8.1 56 13.7 81 13.2
7 23.0 32 9.1 57 9.8 82 19.4
8 24.2 33 12.4 58 4.7 83 11.4
9 8.5 34 12.0 59 10.2 84 12.9
10 7.6 35 7.6 60 7.2 85 11.0
11 4.9 36 9.1 61 9.1 86 15.6
12 8.0 37 18.8 62 3.6 87 3.9
13 8.7 38 10.2 63 12.0 88 19.1
14 19.2 39 11.4 64 7.7 89 4.5
15 9.6 40 11.8 65 4.1 90 11.5
16 20.7 41 9.2 66 5.1 91 5.6
17 11.5 42 4.1 67 21.1 92 11.3
18 8.7 43 4.4 68 12.1 93 3.6
19 13.7 44 3.4 69 8.2 94 9.1
20 4.1 45 4.7 70 13.3 95 10.1
21 13.5 46 9.1 71 12.7 96 18.0
22 15.4 47 17.7 72 7.7 97 8.1
23 19.1 48 8.3 73 9.6 98 4.3
24 7.7 49 25.7 74 5.4 99 7.6
25 13.5 50 17.9 75 21.2 100 13.2
В таблице 2 приведены частоты п1 попадания времен в частичные интервалы tj - tj + 1 .
Таблица 2 - Частоты попадания в частичные интервалы
t, -1, + 1 ni tI -1, + 1 ni
0 - 5.0 14 15.0 - 20.0 13
5.0 - 10.0 37 20.0 - 25.0 8
10.0 - 15.0 26 >25 2
Рисунок 1 - Гистограмма частот времени запоминания
Гистограмма частот приведена на рисунке 1.
Вид гистограммы напоминает кривую гамма-распределения. Оценку параметров гамма распределения будем На основании данных, приведенных в таблице 1, полупроизводить исходя из выражений для математического чим следуЮщие уравнения: ожидания и дисперсии, которые соответственно равны
a = 11, 413 и — = 33, 221 . (22)
M(t) = a , D(t) = a . (21) 1 l2
1 12
совместное решение которых дает значения 68 ISSN 1607-3274 "Радюелектрошка. 1нформатика. Управл1ння" № 1, 2003
1 = 0,344 и а = 3,921 .
(23)
Р (гг < г < гг +1) = | р (г) Жг.
(25)
%набл f
(п, - и,')2
(27)
Результаты расчетов сведены в таблицу 3.
2
Таблица 3 - Оценка наблюдаемого %набл
г,- г,+1 п, р(г, < г < г1 + 1) и, (И-и/)2 п;
0.0 - 5.0 14 0.104 10.4 1.246
5.0 - 10.0 37 0.363 36.3 0.013
10.0 - 15.0 26 0.302 30.2 0.584
15.0 - 20.0 13 0.149 14.9 0.242
20.0 - 25.0 8 0.057 5.7 0.928
>25 2 0.035 2.5 0.100
% набл = 3,113 Число степеней свободы определяется выражением
к = , - г - 1 = 3,
(28)
ном 3, находим критическую точку правосторонней критической области:
Отсюда предполагаемая плотность распределения равна [3,4]
0,3443'921 2,921 -0,344г „„„„ „ 2,921 -0,344г,„.,
Р(г) = Г( , 92 1 )' е = °'°°28г е (24)
Для сравнения теоретического и экспериментального распределений воспользуемся критерием Пирсона [5]. Определим вероятности попадания значений времени в границы выделенных интервалов:
%кр (^ 3) = 7,8.
(29)
Находим ожидаемое количество событий п{, приходящихся на каждый интервал
п/ = ЫР(г, < г < гг +1), (26)
где N - количество проведенных наблюдений.
Определим значение %набл2 , которое находится по формуле
22
Так как %набл < %кр , то нет оснований отвергать гипотезу о гамма-распределении и данные наблюдений согласуются с этой гипотезой.
Следует отметить, что особенности гамма-распределения нашли место, например, для описания творческой деятельности человека. Так, в работе [6] предложено теоретико-вероятностное описание научного труда, исходя из случайного распределения знаний и проблем в тезаурусе ученого. При этом делаются допущения, которые позволяют рассматривать порождение знаний и проблем как дискретный процесс Пуассона. После обобщения автор приходит к гамма-распределению, которое достаточно хорошо согласуется с экспериментальными данными науковедения о производительности научного труда.
Приведенные выше допущения могут быть положены в основу описания процесса обучение с помощью цепей Маркова.
Марковская модель обучения представлена следующими состояниями процесса обучения:
- состояние 1 - исходное состояние;
- состояние 2 - усвоение определенного объема знаний;
- состояние 3 - отсутствие удовлетворительного усвоения знаний;
- состояние 4 - результат усвоения знаний после проведения проверки знаний;
- состояние 5 - результат отсутствия удовлетворительного усвоения знаний после их проверки.
Если вероятности переходов между состояниями являются постоянными величинами, то такой процесс можно описать поглощающей цепью Маркова, так как существуют состояния 4 и 5, которыми завершается процесс обучения.
Структура матрицы переходов для поглощающей цепи Маркова имеет вид [7]:
Р=
<2К
О Е
(30)
где Q - подматрица, описывающая поведение процесса до попадания в поглощающее состояние;
Я - подматрица переходов в поглощающие состояния; О, Е - нулевая и единичные подматрицы. Для процесса обучения 4 и 5 состояния являются поглощающими.
Матрицы Q и Я соответственно равны:
где I = 6 - количество интервалов после объединения; г = 2 - число параметров, оцениваемых при выборке. Отсюда имеем к = 3 .
Из таблицы критических точек распределения %кр2 по уровню значимости 0,05 и числу степеней свободы, рав-
Q =
0
К0 1 - К0
1 - А 0 0 А 0 0
0 0
; Я = А 0
0 1 - А_
(31)
г
где К0 - вероятность усвоения знания;
А и А - вероятности качественной проверки усвоенных и неусвоенных знаний соответственно.
Использование фундаментальной матрицы N = (Е - Q) позволяет получить ряд важнейших характеристик исследуемого процесса:
N =
1
1 - (1 - К )А -К0 (1 - А)
1
К
1-К
0 1 0 1 -А 1 - (1 - К0) А (1 - К0)( 1 - А) А К0А 1 - К0 (1 - А)
(32)
В =
1
1 - (1 - К0)А-К0( 1 - А)
тат, а второе слагаемое - это вероятность того, что материал не усвоен, а проверка не выявила это;
- вероятность выделения первого дополнительного времени на усвоение как события, противоположного завершению процесса за выделенное время ^ = Р = 1 - 60;
- вероятность завершения процесса обучения после выделения первого дополнительного времени О1 = РО 0;
- вероятность выделения второго дополнительного времени на усвоение Р2 = Р2;
- вероятность завершения процесса обучения после выделения второго дополнительного времени 02 = Р200 ;
и т.д.
Таким образом, вероятность выделения ] -го дополнительного времени на обучение определяется выражением
Элемент п ] матрицы N дает ожидаемое количество моментов времени, которое проводит процесс в состоянии ] до попадания в поглощающее состояние при условии, что он начался в состоянии 1 .
Матрица В = NR позволяет оценить вероятность попадания в соответствующее поглощающее состояние:
Р] = Р,
(36)
а вероятность завершения процесса обучения после выделения ]-го дополнительного времени на обучение получается умножением (36) на:
0] = 00р] ■
(37)
Для ограниченного количества п моментов времени, выделяемых на обучение, вероятность того, что процесс обучения будет завершен, определяется суммой
К0А
(1 - К 0)(1 - А) [1-(1 - К0)А ]А (1 - К0)(1 - А)(1 - А) - [ 1-К0( 1 - А)]( 1 - А)
К0 АА
(33)
= _1_ . _ К0А п1,1 1 _ Р' ъ 1,1 1 _ Р'
К = ъхх =
КрА 1 - р .
0(п)=00 + 00Р + 00р2 + -=00 пР'= -(38)
] = 1
Предел этой вероятности при п ® ¥ равен единице:
Для предлагаемой модели представляют интерес элементы П1 1 и Ъ11 матриц N и В соответственно:
О = Иш
п ® ¥
0
1 - Р'
п + 1-,
0
1 - Р
0 1 -Р
= 1
(39)
(34)
где Р = (1 - К0)А + К0( 1 - А) .
Значение элемента ^ 1 соответствует вероятности
усвоения знаний или качеству знаний на выходе процесса обучения:
Проводя аналогичные рассуждения для вероятности усвоения материала, получим выражения, которые подобны (38) и (39). В этих выражениях О0 будет заменено произведением К0А , которое представляет собой вероятность того, что материал усвоен и проверка знаний дала положительный результат:
1 - Рп + 1
К( п) = К0А 1-Р
(40)
(35)
при п ® ¥
Величина п1 1 определяет ожидаемое количество интервалов времени, необходимых для усвоения материала.
Для оценки общего ожидаемого времени на усвоение материала рассмотрим вероятности следующих событий:
- вероятность завершения процесса обучения за выделенное время Т0 О0 = К0А + (1 - К0)(1 - А ) , где первое слагаемое определяет вероятность того, что материал усвоен и проверка усвоения дала положительный резуль-
К=
К 0А 1 -Р
(41)
Последнее выражение совпадает с (35), полученным при рассмотрении обучения как марковского процесса. Оценим время , затрачиваемое на обучение. Затраченное на обучение время Т( п) определяется суммой основного времени на обучение и п раз выделяемого
(42)
дополнительного времени:
Т( и) = Т0 + Т1 + - + Тг + - + Тп , где Т1 - выделяемое ; -ое дополнительное время.
Т, + 1
В соответствии с выражением (15) отношение = § , отсюда получим
Б =
Т0 8г 2
1 - $
\г§ 00 г ^- 0 г §Ег +
; = 0
; = 0
+ О0 С (§2Е)
; = 0 .
(49)
После суммирования членов геометрической прогрессии это выражение приобретает вид
Тг = § гТ0
(43)
Т( и) = Т0 Г § * = Т01^-1 •
; = 0
1 - §
Т
( и )
Т0 О0
= Г Т(,) О = тт§ Г ^ (1 - §и+1) =
; = 0
; = 0
Т0 °0Г1 - Еи + 1 - § 1 - (8Е)и + Ь
1 - §
1 - Е
1 - § Е
Б =
Тп §
2
1 - §
22
1 - Е
2 Оп
-2
1 - Е О0
^ О.
1 - §Е 1 - Е 1 - §Е 1 - §Е 1 - §2р_
(44)
Т2 § 2Е (1 - Е) (1 - § 2 Е ) (1 - §Е )2'
(50)
Ожидаемое время Т (и) при количестве выделяемых дополнительных моментов времени, не превышающих и , с учетом выражений (37) и (44), равно
(45)
При неограниченном количестве выделяемых дополнительных интервалов времени получим значение
ожидаемого времени Т на обучение:
При рассмотрении Т какслучайнойвеличины сдис-
персией Б0 , получение выражения для дисперсии описанным выше подходом представляет определенные трудности. Представим время (43) как результат произведения двух случайных величин - времени Т и коэффициента
-—-тт,, дисперсия которого может быть получена из вы-1 - § Р
ражения (50) после подстановки вместо Т 0 единицы.
Формула для дисперсии произведения двух случайных величин, математические ожидания и дисперсии которых соответственно равны т ^,т2,Б^ и Б2 , имеет вид
Б = Б1Б 2 + т2 Б 2 + т 2 Б1 ,
(51)
Т = Иш
и ® ¥
ГТ0 О0|-1 - р7 +1 § 1 - (§ Е)и +1 л
1 - §
1 - Е §" 1 - §Е
Т
0
1 - §Е
(46)
Исходя из общих затрат времени на обучение при выделении п раз дополнительного времени (44) и ожидаемого
значения времени на обучение Т (46), выражение для
дисперсии Б имеет вид
1 - § и + 1
Б = м ^01Т=1Г-Т 01 -
(47)
1 - §
Б=
Т0 2
1 - а
м
2 - 2 ^. + 6 2.
- § Е
откуда
Б = Б+1 ( 1 -§№(-Б0;тгЬ (52)
В полученных выражениях Т^, представляет собой
только время обучения. Учет времени проверки знаний производится по аналогичным формулам, однако, если выделение времени на обучение и проверку брат равным ожидаемым, то есть в выражениях (15) и (20) т = т и = 1 , то величина § будет одинаковой как для обучения, так и для проверки знаний:
где М - знак математического ожидания.
После возведения выражения в скобках в квадрат и вы-
Т 0§
несения за знак математического ожидания, имеем
§ =
а
Г(а + 1)
(53)
(48)
Раскрывая выражение для математического ожидания, с учетом формулы (37), получим
Это позволяет использовать выражения (46), (50) и (52) для получения общих временных затрат. При этом Т0 будет представлять сумму ожидаемых затрат времени на обучение и проверку знаний, а Б 0 - дисперсию этой суммы.
и
и
и
и
РЕЗУЛЬТАТЫ
Получены выражения для законов распределения времени на усвоение элементов знаний и некоторого объема знаний как совокупности этих элементов, которые описывается соответственно экспоненциальным законом (4) и гамма-распределением (5). На простейшем примере продемонстрировано согласование этого утверждения с экспериментальными данными.
Показано, что выделение времени на обучение пропорционально ожидаемому времени усвоения приводит к постоянству качества обучения (10) как для основного объема знаний, так и для случая, когда выделяется дополнительное время при отсутствии полного усвоения основного объема знаний. Это позволяет описывать обучение как марковский процесс (30, 31).
Получены выражения для вероятностей качественного обучения (35, 40, 41), времени ожидаемых затрат на обучение (46) и дисперсии этой величины (50, 52).
ВЫВОДЫ
Гипотеза о том, что вероятность получения элемента знаний в малом промежутке времени пропорциональна величине этого промежутка, приводит к экспоненциальному закону распределения времени на усвоение элемента знаний. Композиция экспоненциальных законов при постоянстве интенсивности обучения приводит к гамма-распределению времени на усвоение некоторого объема знаний как совокупности элементов знаний. К такому же результату приводит процесс проверки знаний.
Проведенный эксперимент по проверке гипотезы о гамма-распределении времени на запоминание определенного объема информации показывает, что полученные данные согласуются с этой гипотезой.
Выделение времени на обучение пропорционально
ожидаемому времени на усвоение знаний приводит к постоянству качества обучения и позволяет описывать его как марковский процесс, что может быть положено в основу построения математической модели процесса обучения.
Дальнейшие исследования в этом направлении должны включать себя определения условий описания процесса в виде цепей Маркова в случае, когда при выделении дополнительного времени на обучение изменяется параметр а , либо 1 и одновременно, что повлечет за собой изменения выражений (9-20). Для достижения постоянства вероятностей переходов между состояниями процесса обучения необходимо будет определить закон в изменения коэффициента | в выражениях (8) и (14).
Использование цепей Маркова позволит построить модель обучения для каждой дисциплины и для специальности в целом, а затем перейти к модели учебного заведения, в которой влияние всех служб на качество обучения будет выражаться через параметры моделей дисциплин и специальностей.
ПЕРЕЧЕНЬ ССЫЛОК
1. Феллер В. Введение в теорию вероятностей и ее приложения. В 2-х томах. Пер. с англ. - М.: Мир, 1984. -1266с.
2. Вентцель Е.С. Теория вероятностей. М.: Наука, 1964. -576с.
3. Справочник по специальным функциям / Под ред. М. Абра-мовица и И. Стиган. -М.: Наука, 1979. - 832с.
4. Янке Е., Эмде Ф., Леш Ф. Специальные функции. М.: Наука, 1977. - 344с.
5. Гмурман В.Е. Руководство к решению задач о теории вероятностей и математической статистике. М.: Высшая школа, 1975. - 336с.
6. Muller Fritz. Ein Versuch zur wahrscheinlichkeitstheoretischen Erklärung der wissenschaftlichen Produktivität. - Elektron. Informationsverarb. und Kybern., 1974, 10, №1, s.53-64.
7. Кемени Дж., Снелл Дж. Конечные цепи Маркова. М.: Наука, 1970. - 272с.
удк 517.977.1
ЗАДАЧА КОММИВОЯЖЕРА И ГЕНЕТИЧЕСКИЕ АЛГОРИТМЫ
В.М.Гавриляко
Изучается генетический алгоритм решения задачи коммивояжера. Акцент делается на возможности его практического применения.
Вивчаеться генетичний алгоритм розв'язання задачг ко-мгвояжера. Акцент робиться на можливостг його практичного застосування.
The author study a Genetic Algorithm for solution of Traveling Salesman Problem. The emphasis is done on the possibility of its practical applications.
В данной работе рассматривается известная задача оптимизации - задача коммивояжера (ЗК), которая принадлежит к числу NP - полных задач, являющихся трудноразрешимыми с вычислительной точки зрения. Известно,
что время нахождения точного решения путем перебора всех возможных вариантов имеет астрономический порядок. Поэтому один из возможных подходов к практическому решению этой задачи состоит в использовании эвристических алгоритмов. В этом случае, как известно, отсутствуют привычные обоснования применимости метода. "Правдоподобные рассуждения, наша интуиция, опыт и машинный эксперимент - вот пока те оправдания эвристики, которыми мы располагаем" [1]. Изучаемый в работе эвристический алгоритм позволяет найти, вообще говоря, локальный минимум в ЗК с помощью моделирования на компьютере законов генетики и естественного отбора Ч. Дарвина. Впервые идея этого алгоритма была предложена Дж. Холландом [2] и названа им "генети-