Б. Б. Нестеренко, М. А. Новотарський: МОДЕЛЮВАННЯ ДИСКРЕТНИХ КЛ1ТКОВИХ НЕЙРОННИХ МЕРЕЖ
3. Гвидо Дебок, Тейво Кохонен. Анализ финансовых данных с помощью самоорганизующихся карт. Пер. с анг.. - М.: Издательский дом «Альпина», 2001. -316 с.
4. Teuvo Kohonen, Jussi Hynnien, Jari Kangas, Jorma Laak-sonen. SOM_PAK the Self-organizing map program package. Version 3.1 - Finland: Helsinki University of Technology, 1997. - 27 p.
5. Киприч Т. В., Дубровин В. И. Методика контроля пом-пажных явлений ГТД на основе вейвлет-анализа и дискриминантых признаков // Вестник двигателестро-ения. - 2008. - № 1. - С. 168-169.
Надшшла 25.04.2008
Для анал1зу статв процес1в та систем розглядаються можливост1 програмних засоб1в, що реал1зують методику власнеоргатзованих карт Кохонена. Розроблене програм-не забезпечення «Control & Diagnostics System» зор1енто-
eano na diazHocmyeaHHM no3ammamnux ma noMu^uoeux cumyau,iu, w,o eunuKammb y xodi poSomu oSAadnanHM. Ha uozo ocnoei npoeedeno docxidxeHHM ia3oduHaMimoi He-cmiuuocmi mypSouoMnpecopy no daHuM cmeHdoeux eunpoSy-eaHb za3omyp6iHHozo deuzyHa.
Possibilities of the software tools to analyze states of the processes and systems, implemented the methodic of self-organizing Kohonen's maps, are considered. Developed «Control & Diagnostics System» software is directed to diagnostics of contingencies and error events, that occur in the equipment work process. On the base of it the research of the turbo compressor gas-dynamic instability under data of the gas-turbine block test was carried out.
УДК 519.876.5
Б. Б. Нестеренко, М. А. Новотарський
МОДЕЛЮВАННЯ ДИСКРЕТНИХ КЛ1ТК0ВИХ НЕЙРОННИХ МЕРЕЖ
В робот1 дано обгрунтування перспективност1 засто-сування дискретних кл1ткових нейронних мереж для роз-в'язування крайових задач математичноЧ ф1зики локаль-но-асинхронними методами. Коротко описано основш еле-менти APRO-мереж та запропонована дискретна кл1т-кова мережа, яка представлена у вигляд1 двор1вневоЧ APRO-мережi. Розглянуто базов1 принципи функцюну-вання даноЧ мережi, що визначають характер еволюци послiдовних крокiв. Описана методика формування реального робочого навантаження та основт тдходи до навчання.
ВСТУП
Протягом останнього часу ч1тко окреслились облает! ефективного застосування штучних нейронних мереж. Значних усшх1в досягнуто, зокрема, при реал1зацп ал-горитм1в апроксимаци функцш та регресшного ана-л1зу, включаючи передбачення часових посл1довнос-тей. Широкого застосування штучш нейронш мереж1 набули при виршенш класифжацшних задач, а саме: при розтзнаванш образ1в та визначенш новизни сиг-нал1в. Разом з тим, велика кшьюсть публжацш, прис-вячених проблем! реал1заци обчислювальних алго-ритм1в на штучних нейронних мережах, дае впевне-шсть у тому, що цей напрямок також мае велик! пер-спективи. Обчислювальш алгоритми можуть бути реа-л1зоваш на традицшних нейронних структурах. На-приклад, в [1, 2] для розв'язування крайових задач математично! ф1зики використовуються штучш нейронш мереж! прямого поширення. Альтернативний тдх1д полягае у застосуванн! кл!ткових нейронних мереж [3, 4] ! е б!льш орган!чним при розв'язуванн!
© Нестеренко Б. Б., Новотарський М. А., 2008
крайових задач, оск!льки структура област! обчислен-ня корелюеться з! структурою кл!тково! мереж!. Але обидва п!дходи мають загальний недол!к, пов'язаний з можлив!стю застосування лише прямих обчислювальних метод!в. Кр!м того, алгоритми навчання таких мереж характеризуються значною трудом!стк!стю ! не завжди гарантують усп!шн!сть виконання процедури навчання.
В дан!й робот! запропоновано використання дис-кретних кл!ткових мереж, як! реал!зують алгоритми чисельних метод!в розв'язування крайових задач мате-матично'! ф!зики, що значно розширюе коло проблем, як! можуть бути вир!шен! за допомогою нейронних мереж. Також запропоновано п!дходи до навчання, як! базуються не т!льки на зм!н! вагових коеф!ц!ент!в ней-рон!в, а й на властивост! пластичност!, що виражена у модиф!каци структурних зв'язк!в м!ж нейронами.
1 СТРУКТУРА МОДЕЛ1 ДИСКРЕТНОI КЛ1ТК0В01 МЕРЕЖ1
Будемо розглядати дискретну кл!ткову мережу у вигляд! !м!тац!йно1 модел! складно! дискретно!' систе-ми, що дае можлив!сть реал!зувати !! на сучасних обчислювальних системах. Застосувавши APRO-мереж! [5] як !нструмент формального опису, представимо дискретну кл!ткову мережу кортежем:
Ф = (P, T, F, M, V),
де P = {Pi}. = i - ск!нченна множина позиц!й,
(1)
T = {tj}j = i - ск1нченна множина переход1в,
F = (P х T) и (T х P) - множина ребер м1ж переходами та позиц1ями,
аж Ii { !Max-Pk]\n
M = -i I pk,{\±i}i = 1 I - ск1нченна множина маркувань,
V = (А, Л) - множина глобальних зм1нних.
Под1бно до граф1чних позначень, що застосовують-ся в мережах Петр1, позиц1я APRO-мереж поз-начаеться колом, простий перех1д - л1н1ею, ребро -л1н1ею з1 стр1лкою, а м1тка - крапкою. Додатково введено позначення, як1 пов'язан1 з елементами операторного переходу. Сам операторний перех1д будемо зображати у вигляд1 прямокутника, а входи 1 виходи операторного переходу представимо у вигляд1 л1вого 1 правого п1вк1л. Найпрост1шу APRO-мережа, що включае вс1 згадан1 елементи, наведено на рис. 1.
ПозицИ APRO-мереж1: pi = {d, qJ, де dt - множина параметр1в позицИ, qt - множина м1ток, розм1щених на дан1й позицИ. Переходи APRO-мереж! включають два класи переход1в: t = {т, Ne}, де т - клас простих переход1в, Ne - клас операторних переход1в. Простий перех1д описуе множина елемент1в ту = {Ху, Nj}, де Ху - множина параметр1в переходу, Ny = = {ру, Пу, Yy, Юу, Ay, Oy} - функц1ональне ядро переходу, що складаеться з таких елемент1в: ру - процедура ак-тивацИ переходу, Пу - процедура обслуговування пе-
у
реходу, Yj- - процедура деактиваци переходу, процедура оч1кування, Ау - частково впорядкована посл1довн1сть активностей, Оу - частково впорядкована посл1довн1сть вих1дних м1ток.
Операторний перех1д задае APRO-мережу нижнього р1вня 1 може бути описаний кортежем:
Рисунок 1 - Haünpocmirna APRO-мережа
Ne = (P, T, E, X, F),
(2)
J
де E = {ec}c = i - ск1нченна множина вход1в операторного переходу,
X = {Xd }d = i - ск1нченна множина виход1в операторного переходу.
Ребра мереж1 задають матрицею 1нцидентност1 I з елементами:
1 (Pi, у) =
_1,(Pi, tу )е F,
+ 1,(Pi, t,)e F-1,
_1
0,(Pi, t})i F,(Pi, tj)g F 1, 1 < i < n, 1 <у < q.
(3)
М1тки APRO -мереж1: = , де ^k множи-
на параметр1в м1тки, ak- множина атрибут1в м1тки.
Множина глобальних зм1нних: V = (А, Y, Л), де А -п1дмножина показник1в продуктивност1, Y - п1дмно-жина показник1в реактивност1, Л - п1дмножина показ-ник1в використання.
Модель дискретно'1' кл1тково'1' мереж1, кожний нейрон яко'1' представлений у вигляд1 операторного переходу APRO-мереж^ показана на рис. 2. Вона мае дво-
104
Рисунок 2 - Модель deoeuMipHoi дискретног KAimKoeoi мережi
ISSN 1607-3274 «Радюелектрошка. 1нформатика. Управлшня» № 1, 2008
Б. Б. Hecmepeíxo, M. А. Hoeomapchxm: MOДEЛЮBAHHЯ ДИCKPETHИX KЛITKOBИX HEЙPOHHИX MEPEЖ
piвнeвy cтpyктypy, пpeдcтaвлeнy oкpeмими APRO-мepeжaми. Bepxнiй piвeнь вiдoбpaжae двoвимipнe oд-нopiднe cepeдoвищe, y ятаму oбчиcлювaльнi фyнкцiï зocepeджeнi в oпepaтopниx пepexoдax T = INei i,..., Ne4 4}, а ^мут^ц^т функцп peaлiзyють пoзицiï P = I pi, ..., ^47}. Maтpиця iнцидeнтнocтi мае вигляд:
Ne,
pi p2 p3 p4 p5 -1 -1 +1 +1 0 0 1 -10 -1
0 0 0
p47 0 0
oбмiнy iнфopмaцieю для Nei ] yтвopюe мнoжинy ^o-кiв I Nei, ] -1, Nei, ] + 1, Nei -1, j, Nei + 1, ] }iy ] на зaдaнoмy oбчиcлювaльнoмy шaблoнi.
Mepeжa здiйcнюe дoвiльний кpoк U пльки за yмoви cпpaцювaння пepexoдiв, яю пoв'язaнi з даним кpoкoм. Змшу мapкyвaння в peзyльтaтi cпpaцювaння ^o^ U чacтo пoзнaчaють як M |U)M'. Bpaxoвyючи, щo для ви-падку диcкpeтнoï клiткoвoï мepeжi з кoжним кpoкoм го-в'язате cпpaцювaння вiдпoвiднoгo oпepaтopнoгo rnpe-xoдy, eвoлюцiя мapкyвaння Ai ■ тд дieю пocлiдoвнocтi кpoкiв мoжe бути пpeдcтaвлeнa вapiaнтaми, кiлькicть якиx дopiвнюe кiлькocтi пepecтaнoвoк P(4, 4) = 4!:
Cтpyктypa мoдeлi нижньoгo piвня oпиcye poбoтy клiткoвoгo нeйpoнa, у якiй зв'язoк з мoдeллю вepxнь-oгo piвня вiдбyвaeтьcя за дoпoмoгoю вxoдiв E(Nei ]) = = I^i, ..., 64} та виxoдiв X(Nei ]) = Ixi, .••, x4} Дoвiль-нoгo oпepaтopнoгo пepexoдy Nei j Гpyпa пepexoдiв IT,, ..., T4}с T(Nei ]) зaбeзпeчye викoнaння apифмe-тичниx oпepaцiй для ypaxyвaння впливу вaгoвиx м-eфiцieнтiв, пoв'язaниx з мiжнeйpoнними зв'язками. Пepexoди ^5 , ..., t8} с T(Nei ]) викoнyють oбчиcлeння aктивaцiйнoï функцп. Maтpиця iнцидeнтнocтi APRO-мepeжi дoвiльнoгo клiткoвoгo нeйpoнa Nei ] :
I ( Nei, ] )
e1 e2 e3 e4 p1 p2 p3 p4 x1 x2 x3 x4
T1 -1 -1 -1 -1 + 1 0 0 0 0 0 0 0
T2 -1 -1 -1 -1 0 + 1 0 0 0 0 0 0
T3 -1 -1 -1 -1 0 0 + 1 0 0 0 0 0
T4 -1 -1 -1 -1 0 0 0 + 1 0 0 0 0
T5 0 0 0 0 -1 + 1 + 1 + 1 + 1 0 0 0
T6 0 0 0 0 + 1 -1 + 1 + 1 0 + 1 0 0
T7 0 0 0 0 + 1 + 1 -1 + 1 0 0 + 1 0
T8 0 0 0 0 + 1 + 1 + 1 -1 0 0 0 + 1
Cтpyктypa poзглянyтoï диcкpeтнoï клiткoвoï мepeжi cклaдaeтьcя з мaтpицi клiткoвиx нeйpoнiв poзмipoм 4 X 4, aлe мoжe бути poзшиpeнa дo дoвiльниx poзмipiв бeз змши пpинципiв ïï oпиcy.
2 ФУHKЦtOHУBAHHЯ MOÂEËt ÂÈCKPETHOÏ KËtTKOBOÏ MEPEЖt
Завдяки oднopiднocтi cтpyктypи диcкpeтнoï rhítoo-вoï мepeжi фyнкцioнyвaння вepxньoгo piвня мoдeлi ба-зyeтьcя на визнaчeннi пpaвил взaeмoдiï мiж дoвiльним oпepaтopним пepexoдoм Nei ■ i мнoжинoю cyc^rnx з ним oпepaтopниx пepexoдiв INei ] ,, Nei ] +1, Nei-1 j, Nei + 1 j}, ^^o yтвopюють xpecтoпoдiбний oбчиcлювaль-ний шaблoн. Bзaeмoдiя мiж cyciднiми пepexoдaми шаб-лoнy мае acинxpoнний xapaктep. Toмy пoвний цикл
Mi, ] lAi, M ] =
= Mi, j lUi, j - i)Mi lUi, j +1) M2 Ui -1, ]) M3lUi +1, M ]. ... (4)
Mi, j lAi, M j =
= Mi, j Ui +1, j) M3lUi -1, j) M2 lUi, j + i)Mi lUi, j - iM j.
Загальна eвoлюцiя мapкyвaння A диcкpeтнoï кл^та-
вoï мepeжi (pиc. 2) poзмipнicтю 4 x 4 визнaчaeтьcя кiль-22
кштю пepecтaнoвoк P(4 , 4 ) = 16! :
M|A)M' = M|Ai i)Mi 1...M4 3|A4 4)M',
M|A)M' = M|A4 4)M4 4.M1 2|Ai i)M'.
(5)
Фyнкцioнyвaння нижньoгo piвня мoдeлi вiдпoвiдae eвoлюцiï APRO^epeœi клiткoвoгo нeйpoнa, пpeдcтaв-лeнoгo жладним кpoкoм Ui j = u, ° u2 ° u3 ° u4, який вь дoбpaжae cyпepпoзицiю гpyп пepexoдiв:
ui = I(ei,ßei),.,(e4,ße4)},
u2 = «Ti^t,),...,(T4^X4)} , u3 = •
u4 = »^ßx.X •
•.(T 8,ßT8)} ,
x4, ßx4)} .
Пapaмeтpи ß вказують на кiлькicть вxoджeнь дaнoгo пepexoдy пpи викoнaннi вiдпoвiднoгo кpoкy.
Eвoлюцiя мapкyвaння j мepeжi нижньoгo piвня:
mi,j|Si,j)mï,j = mi,]|u1)ml|u2)m2lu3)m3|u4)m',j. (6)
Oтжe, пoeднaння eвoлюцiï мapкyвaння на piвнi кли-кoвoгo нeйpoнa (6) з eвoлюцieю мapкyвaння на oбчиc-лювaльнoмy шaблoнi (4) та зaгaльнoю eвoлюцieю мap-кування (5) дoзвoляe oxoпити ви мoжливi cтaни мo-дeлi диcкpeтнoï клiткoвoï мepeжi в xoдi ïï функцюну-вання.
I
3 РОБОЧЕ НАВАНТАЖЕННЯ МОДЕЛ1
Описана модель дискретно! кл!тково! мереж! безу-мовно в!дноситься до складних систем, досл!дження яких у анал!тичному вигляд! викликае значн! труд-нощ!. Тому для одержання коректних результат!в до-ц!льно використовувати !м!тац!йне моделювання, яке у даному випадку мае ряд особливостей. Головна з цих особливостей полягае у тому, що !м!тац!йна модель кл!тково! мереж! використовуе реальне робоче наван-таження у вигляд! алгоритм!в, побудованих за спец!-ально розробленими для таких мереж чисельними ло-кально-асинхронними методами [6] розв'язування систем алгебра!чних р!внянь:
Оь = Ф, (7)
!терац!! дае можлив!сть орган!зац!! обчислень !з до-в!льними алгоритмами оновлення попередн!х компонент^. Тому немае необх!дност! оч!кувати оновлення вс!х в!дпов!дних компонент!в вектора !терац!! перед продовженням !терац!йного процесу в даному кл!тко-вому нейрон! мереж!. Такий принцип орган!зац!! обчислень е базовою властив!стю асинхронност! розгля-нутого методу. У сукупност! !з властив!стю локаль-ност!, що спричиняе використання т!льки деяко! п!д-множини компонент вектора !терац!! для усп!шного продовження !терац!йного процесу в кожному вузл! мереж!, одержуемо метод, що дае можлив!сть застосу-вання кл!ткових нейронних мереж для розв'язування крайових задач математично! ф!зики з високим ступе-нем дискретизац!!.
де О - р!зницевий оператор, що задае в!дображення О К ^ К ; V - шукана р!зницева функц!я; Ф -функц!я право! частини.
1терац!йний процес у таких мережах починаеться з надходження на вх!д кожного нейрона мереж! початко-вого вектора даних (V;,у _ 1(0), V,у + 1(0), _ у(0), VI + 1 у(0)). Кожен нейрон реал!зуе свою частину Oi у загального оператора О, використовуючи сво!' дан! та т!, як! були одержан! в1д !нших нейрон1в. Асинхронною !терац1йною посл!довн!стю, що в!дпов!дае оператору О, будемо називати посл!довн!сть {V (а)}^ = 1 вектор!в v(а) е Кп, що визначаеться рекурсивно за !терац!йною схемою:
4 НАВЧАННЯ ДИСКРЕТНОI КЛ1ТКОВО1 МЕРЕЖ1
vi, у(а)
Г V;, у (а - 1),(г,у )й Аа,
О у [vi - 1, Д ^ - 1, у(а-1))' •"> vi, у + у + 1(а -1))]> (у ) е Аа.
Здатн!сть до навчання е фундаментальною влас-тив!стю штучних нейронних мереж. Процес навчання можна розглядати як модиф!кац!ю м!жнейронних зв'язк!в та налаштування вагових коеф!ц!ент!в для ефективного виконання поставлено! задач!. 1снуе велика к!льк!сть правил та процедур навчання, як! зале-жать в!д типу штучних нейронних мереж.
Для даного типу дискретних кл!ткових мереж суть
навчання полягае у задаванн! м!жнейронних зв'язк!в,
як! виникають в ход! розв'язування крайових задач
математично! ф!зики, а також вагових коеф!ц!ент!в,
як! п!двищують зб!жн!сть !терац!йних процес!в у
нейронах. Використання р!зних м!жнейронних зв'язк!в
зумовлено застосуванням мультис!ткових метод!в [6],
(8) як! реал!зують обчислення на !ерарх!чн!й посл!дов-• • Л 0) „( 1) п(г)
ност! с!ток О 3 О 3 ... 3 О , для кожно! з яких
Сукупн!сть непустих п!дмножин Аа множини А = = {(1, 1), (1, 2),у),...,(4, 4)} утворюе хаотичну посл!довн!сть О = {Аа}^ = 1, а затримки si у (а) об'ед-
нейрону Мв; у в!дпов!дае своя множина сус!дн!х ней-рон!в. 0соблив!сть розглянутого п!дходу до зм!ни м!ж-нейронних зв'язк!в полягае у тому, що така зм!на в!д-буваеться без модиф!кац!! структури нейронно!
нан! в посл!довн!сть затримок 5 = {у(а)}а = 1, мереж!. Механ!зм транзитних пересилок забезпечуе
(у) е Аа, що в!дпов!дае умовам: 0 < ^ у(а)<а при а = 1, 2, ...; Нш (^ ■ (а)) = <ю. Затримки ^ .-(а) дають
а ^ ю
можлив!сть використання дов!льних компонент!в век-тор!в попередн!х !терац!й при обчисленн! вектора поточно! !терац!!. 0днак для досягнення прогресу в об-численнях ус! компоненти вектора !терац!! повинн! пер!одично оновлюватися, що накладае певн! обмежен-ня на хаотичну посл!довн!сть О. Найкращого результату зб!жност! методу можна досягти, якщо на кожному черговому !терац!йному кроц! у вузлах с!тково! област! будуть використовуватись т!льки оновлен! компоненти !терац!йного вектора. Однак використання хаотично! п!дмножини Аа для формування чергового вектора
зв'язки м!ж нейронами, як! утворюють с!тки О(, г > 0. Завдяки цьому механ!зму виникае можлив!сть орган!-зац!! обчислень на в!ртуальних с!тках, структура яких не сп!впадае з ф!зичною структурою кл!тково! мереж!. Суть мультис!ткових метод!в полягае у п!двищенн! ефективност! розв'язування крайових задач матема-тично! ф!зики локально-асинхронним методом за раху-нок згладжування низькочастотно! складово! нев'язки на грубих с!тках. Ефективн!сть такого згладжування залежить в!д посл!довност! застосування Ж-цикл!в та У-цикл!в ! е !ндив!дуальною для кожно! конкретно! крайово! задач!. 0тже, виб!р конкретного алгоритму мультис!ткового методу можна розглядати як навчання кл!тково! нейронно! мереж!.
106
1607-3274 «Радюелектрошка. 1нформатика. Управлшня» № 1, 2008
Б. Б. Нестеренко, М. А. Новотарський: МОДЕЛЮВАННЯ ДИСКРЕТНИХ КЛ1ТКОВИХ НЕЙРОННИХ МЕРЕЖ
Тепер розглянемо методи навчання дискретних кл!т-кових нейронних мереж, що забезпечують покращення показник!в розв'язування крайових задач шляхом мо-диф!кац!! вагових коеф!ц!ент!в нейронних зв'язк!в. В!домо, що швидк!сть зб!жност! дов!льного !терац!йно-го методу залежить в!д спектральних властивостей р!зницевого оператора. Отже, !снуе можлив!сть мо-диф!кац!! системи р!зницевих р!внянь (7) до екв!ва-лентно! системи, яка мае той же розв'язок при кращих спектральних властивостях р!зницевого оператора О. Нехай оператор О заданий у вигляд! матриц! коеф!-ц!ент!в системи р!зницевих р!внянь:
Ог(д) = Ф(д), д е О. (9)
Тод! припустимо !снування деяко! матриц! Ш тако!, що модиф!кована система р!зницевих р!внянь
Ог(д) = д) (10)
мае той же розв'язок, що ! система (9), але спект-
-1
ральн! властивост! матриц! коеф!ц!ент!в Ш О кращ!, н!ж матриц! коеф!ц!ент!в О. 1снуе велика к!льк!сть п!дход!в до визначення матриц! Ш в залежност! в!д ви-бору методу прискорення. Як один з приклад!в засто-сування метод!в прискорення до навчання кл!ткових нейронних мереж може бути застосоване пол!ном!аль-не прискорення [7].
ВИСНОВОК
1нтерес до розширення сфери застосування штучних нейронних мереж став причиною зб!льшення к!лькост! усп!шних реал!зац!й обчислювальних алгоритм!в на даних структурах. Практика показала, що при роз-в'язуванн! крайових задач математично! ф!зики най-краще проявили себе кл!тков! нейронн! мереж!, оск!ль-ки у даному випадку область обчислень крайово! задач! може бути сп!вв!днесена з! структурою мереж!. Загальним недол!ком застосування в!домих штучних нейронних мереж е алгоритм!чн! обмеження, що зво-дяться до можливост! застосування т!льки прямих ме-тод!в розв'язування крайових задач. В робот! запропо-новано п!дх!д до побудови модел! дискретно! кл!тково! нейронно! мереж!, яка дозволяе застосування широкого спектру чисельних метод!в, що значно розширюе коло доступних до розв'язування задач та зменшуе по-хибку при одержанн! результат!в. Представлення мо-дел! у формал!зованому вигляд! за допомогою АРИО-мереж дае можлив!сть реал!зац!! !! в обчислювальних середовищах р!зного типу, включаючи паралельн! роз-под!лен! обчислювальн! системи. Специф!ка представлення даних в АРИО-мережах забезпечуе можлив!сть
використання на модел1 реального робочого наванта-ження. Застосування спещальних локально-асинхрон-них метод1в, в основ1 яких лежить забезпечення неза-лежних обчислювальних процеив на кожному з вуз-лових нейрошв кликово! мережу запропоновано для повного використання властивостей кликових нейронних мереж. Дискретний характер обчислень в кл1т-ковш мереж1 вимагае перегляду п1дход1в до навчання таких структур. У робой запропоновано два можливих алгоритми навчання. Один з них базуеться на викорис-танш властивост пластичност i дозволяе модифжува-ти характер обчислень таким чином, щоб використову-вати транзитш пересилки даних вiд вщдалених ней-ронiв. Другий пiдхiд використовуе традицiйну мо-дифiкацiю вагових коефвденпв для мiжнейронних зв'язкiв з метою тдвищення швидкостi збiжностi ие-рацшних процесiв у кожному з нейрошв.
ПЕРЕЛ1К ПОСИЛАНЬ
1. Lagaris I. E, Likas A, Fotiadis D. I. Artificial Neural Networks for Solving Ordinary and Partial Differential Equations // IEEE Trans. on Neural Networks. - 1998. - Vol. 9, No. 5. - P. 987-1000.
2. Lagaris I. E., Likas A., Papageorgiou D. G. Neural Networks Methods for Boundary Value Problems with Irregular Boundaries // IEEE Trans. on Neural Networks. -2000. - Vol. 11, No. 5. - P. 1041-1049.
3. Chua L. O., Yang L. Cellular Neural Networks: Theory // IEEE Trans. on Circuits and Systems. - 1988. - Vol. 35, No. 10. - P. 1257-1272.
4. Chua L. O., Yang L. Cellular Neural Networks: Applications // IEEE Trans. on Circuits and Systems. - 1988. -Vol. 35, No. 10. - P. 1273-1290.
5. Новотарський M. A. MepeMi для моделювання склад-них систем // Радюелектрошка. ¡нформатика. Управ-лшня. - 2006. - № 2. - С. 60-66.
6. Новотарський M. A., Нестеренко Б. Б. Штучш нейронш мережи обчислення. - КиТв: ¡н-т математики, 2004. -408 с.
7. Хейгеман Л., Янг Д. Прикладные итерационные методы. - M.: Мир, 1986. - 448 с.
Надшшла 9.04.2008
В работе дано обоснование перспективности применения дискретных клеточных нейронных сетей для решения краевых задач математической физики локально-асинхронными методами. Коротко описаны основные элементы APRO-сетей и предложена дискретная клеточная сеть, представленная в виде двухуровневой APRO-сети. Рассмотрены базовые принципы функционирования данной сети, определяющие характер эволюции последовательных шагов. Описана методика формирования реальной рабочей нагрузки и основные подходы к обучению.
In the paper the substantiation of availability of application discrete cellular neural networks for solving of boundary value problems of mathematical physics by local -asynchronous methods is given. Basic elements of APRO-nets are shortly described and the discrete cellular network submitted as a two-level APRO-net is offered. Base principles of functioning of the given network which determine evolution of consecutive steps are considered. The technique of formation of real working loading and the basic approaches to training is described.