Научная статья на тему 'Нейрокомпьютерный алгоритм решения коэффициентной обратной задачи'

Нейрокомпьютерный алгоритм решения коэффициентной обратной задачи Текст научной статьи по специальности «Математика»

CC BY
346
89
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
КОЭФФИЦИЕНТНАЯ ОБРАТНАЯ ЗАДАЧА / РАДИАЛЬНАЯ БАЗИСНАЯ НЕЙРОННАЯ СЕТЬ / COEFFICIENT INVERSE PROBLEM / RADIAL BASIS NEURAL NETWORK

Аннотация научной статьи по математике, автор научной работы — Горбаченко В. И.

предложена нейросетевая реализация метода функциональной оптимизации решения коэффициентной обратной краевой задачи. Нейросетевая реализация использует радиальные базисные нейронные сети для аппроксимации неизвестного коэффициента и решения прямой и сопряженной задач.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Горбаченко В. И.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

A Neuronet Algorithm for the Solution of a Coefficient Inverse Problem

Here is suggested a neuronet realization of the method of functional optimization of the solution of a coefficient inverse boundary value problem. The neuronet realization uses radial basis neural networks for the the approximation of the unknown coefficient and the solution of direct and adjoint problems.

Текст научной работы на тему «Нейрокомпьютерный алгоритм решения коэффициентной обратной задачи»

ИЗВЕСТИЯ

ПЕНЗЕНСКОГО ГОСУДАРСТВЕННОГО ПЕДАГОГИЧЕСКОГО УНИВЕРСИТЕТА имени В. Г. БЕЛИНСКОГО ФИЗИКО-МАТЕМАТИЧЕСКИЕ НАУКИ №26 2011

nrnv

ИИ. В. Г. Б1ЛИНСК0Г0

IZVESTIA

PENZENSKOGO GOSUDARSTVENNOGO PEDAGOGICHESKOGO UNIVERSITETA IMENI V.G. BELINSKOGO PHYSICAL AND MATHEMATICAL SCIENCES №26 2011

УДК: 004.032.26:517.9

НЕЙРОКОМПЬЮТЕРНЫЙ АЛГОРИТМ РЕШЕНИЯ КОЭФФИЦИЕНТНОЙ ОБРАТНОЙ ЗАДАЧИ

© В.И. ГОРБАЧЕНКО

Пензенский государственный педагогический университет им. В. Г. Белинского, кафедра информатики и вычислительных систем e-mail: gorvi@mail.ru

Горбаченко В. И. — Нейрокомпьютерный алгоритм решения коэффициентной обратной задачи // Известия ПГПУ им. В. Г. Белинского. 2011. № 26. С. 366—373. — предложена нейро-сетевая реализация метода функциональной оптимизации решения коэффициентной обратной краевой задачи. Нейросетевая реализация использует радиальные базисные нейронные сети для аппроксимации неизвестного коэффициента и решения прямой и сопряженной задач.

Ключевые слова: коэффициентная обратная задача, радиальная базисная нейронная сеть, градиентный метод

Gorbachenko VI — A Neuronet Algorithm for the Solution of a Coefficient Inverse Problem // Izv. Penz. gos. pedagog. univ. im.i V. G. Belinskogo. 2011. № 26. P. 366—373. — Here is suggested a neuronet realization of the method of functional optimization of the solution of a coefficient inverse boundary value problem. The neuronet realization uses radial basis neural networks for the the approximation of the unknown coefficient and the solution of direct and adjoint problems.

Keywords: coefficient inverse problem, radial basis neural network, gradient method

Введение

Во многих задачах, например, в задачах тепло- и массопереноса, гидрогеологии возникает коэффициентная обратная задача — задача идентификации коэффициентов уравнения с частными производными [1-4].

Для решения коэффициентных обратных задач известны градиентные методы функциональной оптимизации [1, 2]. В этих методах необходимо решать прямую и сопряженную задачи и вычислять на основе решения этих задач градиент функционала. В известных численных реализациях градиентных методов используются сеточные методы для решения прямой и сопряженной задач [1], при использовании которых вычисление градиентов представляет сложную задачу.

Для решения прямой и сопряженной задач предлагается использовать радиальные базисные нейронные сети, что позволит аналитически вычислять градиент.

Постановка задачи

Рассмотрим нелинейную стационарную краевую задачу второго порядка, описываемую уравнением д ( . .du\ д ( du\ д ( du\

1 - dü{k (u) dx.) - d>y{k (u) ay ) + di\k (u) dz) = 0' (x'y'z) e V (1)

на границе области S заданы граничные условия третьего рода

du

а (x,y,z) dn + ß (x,y,z) u + Y (x,y,z) — 0, (x,y,z) e S, (2)

где §n - производная по внешней нормали к поверхности S.

Варьируя функциями аи ß, можно получить условия первого, второго и третьего рода.

В коэффициентной обратной задаче зависимость k (u) неизвестна и ее необходимо найти по приближенно известным в результате измерений значениям решения tpm в некотором множестве zm точек

u (zm) ~ ^m, m 1 2, ..., М. (3)

Необходимо найти u (x, y, z) и k (u) из (1)-(3).

Метод функциональной оптимизации решения обратной задачи

Универсальным методом решения коэффициентных обратных задач является градиентный метод функциональной оптимизации, сводящийся к минимизации функционала

м

J (k) = ^ (u (zm,k) - <fm)2, (4)

т= 1

где и и определяются из (1)-(3).

Известные [1, 2] описания метода функциональной оптимизации не содержат вывода сопряженных задач и рассматривают только простейшие однородные условия первого рода. Рассмотрим идеи метода функциональной оптимизации применительно к задаче общего вида (1)-(2). Пусть функция и принадлежит гильбертову пространству, в котором определено скалярное произведение [5]

(v,w) — j vwdV.

V

Для минимизации функционала (4) необходимо вычислить его градиент 7 по функции к. Для вычисления градиента функционала 7 запишем функционал Лагранжа (Лагранжиан)

ь(к)=7 (к)+/ ф 0'- £ (к (и) £)- ¿У (к (и) ^)- I (к (и) I )Уу (5)

V

где ф - множитель Лагранжа.

Известно [6], что если Лагранжиан составлен для задачи в возмущениях управляющего параметра, в нашем случае рассматривается возмущение 6к коэффициента к (и), то можно найти такую функцию ф, чтобы приращение бЬ Лагранжиана имело вид

бь = ! бк ■ 7ЗУ, (6)

V

а все остальные члены первого порядка точности были бы равны нулю. Из последнего условия получаются сопряженное уравнение и граничные условия сопряженного уравнения. Функция ф тогда является

решением сопряженной задачи. Возможен другой подход к определению градиента функционала [7], использующий тождество Лагранжа

(Ьи, т) = (и, Ь*т) .

Дадим коэффициенту к приращение бк, которому соответствуют приращение решения би и приращение Лагранжиана бЬ. Вычислим приращение бЬ Лагранжиана (5) в виде

бЬ = 6.1 + бQ,

где 67 - приращение функционала (4), бQ - приращение второго слагаемого в Лагранжиане (5). Приращение 67 функционала (4) равно (для краткости опускаем аргументы функций)

м

SJ — J (и + 5и) J (и) = (^(ит + 5ит фт) (ит фт) ^ •

т= 1

Приводя подобные члены и отбрасывая члены второго порядка малости, получаем

м

SJ = 2 ^ ^ 6ит (ит фт).

(7)

Используя дельта-функцию можно записать (7) в форме, которая потребуется нам в дальнейшем

м

6J 2 j 6и (и — фт)6 (x — zm) dV,

V m=1

где x = (x,y, z), S (x — zm) — дельта-функция, функции u и Su непрерывны в V. Рассмотрим приращение SQ

SQ = / Ф [(/ — £ ((k + Sk) -I (u + Su)) — ly ((k + Sk) ly (u + Su)) —

—d ((k+Sk) d (u+Su))) — (/—-t (k t) — d (k dy) — m (k du))

dV.

Пренебрегая членами второго порядка малости дх (Sk дх), IT [Sk , -§z (Sk , получаем

6Q — 6Q1 + 6Q2,

где

6Q1 — — j ф

V

6Q2 — — i Ф

6и 6и 6и

dX\k^X) + + -d~z\k^Z)

д (ї, ди\ д ( ди\ д ( ди\

дХ ('6kdX) + ду ('6%) + dz [6klfz

dV,

dV.

(8)

(9)

Преобразуем выражение (8). Для этого применим формулу интегрирование по частям для объемных интегралов [8]

/Qu f С du

—— u2dV = u\u2 cos (n, x) dS — u^~^— dV, (10)

VS V

где cos (n, x) - косинус угла между вектором внешней нормали к граничной поверхности S и осью х. Тогда

6Q1 — — / фк cos (n, x) + cos (n, y) + Щи cos (n, z)

s L

+ f dr к §iu dV + f к ^ dV + f к ^ dV.

J ox ox J oy oy J oz oz

V V y y V

dS+

(11)

Учитывая формулу производной по нормали

ди ди ди ди

— = — сов (п, х) + — сов (п, у) + — сов (п, г)

дп дх ду дг

(12)

и применяя к объемным интегралам формулу интегрирования по частям, преобразуем выражение (11):

6Ql = — / фк ^ ЗБ +

Б

/ кбидх сов (п, х) ЗБ — / бидх (кдх') ЗУ

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Б Х V Х ^ Х'

/ кбидУ сов(п,у) ЗБ — / би^ (кдУ) ЗУ / кби дХ сов (п, г) ЗБ — / би £ (к дХ) ЗУ

а лг \ /

+

Группируя подобные члены и используя выражение (12) для нормальной производной, получаем

ЗУ. (13)

бQ1 = I к (бидф — ф^) ЗБ — I би

Б V

д ( дф\ д( дф\ д( дф дХ \к^) + ~ду \~ду) + ~дг \~дг

Поверхностный интеграл в выражении (13) преобразуем, рассматривая граничные условия (2). Граничные условия (2) в приращениях имеют вид

дби

а—-----+ рои = 0,

д п

откуда при условии а = 0 (условия не первого рода) получаем

дби в г

—— =-------би.

дп а

Тогда выражение (13) принимает вид

6Ql =

I кби(^ф + вф^) ЗБ — I би Б V

д( дф\ д( дф\ д( дф\

дХ V дх) + дуу ~ду) + дг V яг)

ЗУ.

(14)

В случае граничных условий второго рода можно формально положить в (14) в = 0. Рассматривая граничные условия первого рода в приращениях, следует учесть в (13), что на граничной поверхности би = 0.

Преобразуем выражение (9). Интегрируя по частям, получим

V

^ =—/ ф 1х (бк дх) + ш (бк ди) +1 (бк И)

ЗУ =

= — / фбк^ сов(п,х) ЗБ + / бкдХХдХХЗУ—

Б V

— / фбкдт сов (п, у) ЗБ + / бкдгдУЗУ—

' ду „ ди

V

— / фбк^ сов (п, г) ЗБ + / бкдд^дхЗУ.

у у

ди дф _ г

Группируя подобные члены и применяя формулу производной по нормали (12), получаем

[ ,ди [ (ди дф ди дф ди дф)

6Q2 = — фбк—ЗБ + бк(—— + -К--К- + -к--к- )ЗУ J дп J \дх дх ду ду дг дг)

Б V

Окончательно для приращения Лагранжиана получаем

м

бЬ = 61 + 6Ql + 6Q2 = 2/ 22 би (и — <рт)б (х — гт) ЗУ+

V т=1

+ / кби( дп + а ф)ЗБ — Iби

Г V

— Г бкф^ЗБ + Г бк(дгдх + тттт + ЗУ,

■) т дп ■) Х^дх дх ду ду дг дг J '

д к дф\ + д к дф\ + д к дф дх I к дх 1 ' ду I к ду 1 дг \к дг

ЗУ

или

5Ь = I 6к(дХдг- + тттт + тттт) ЗУ - I ¿кф^ЗБ-

Л удх ох оу оу ог ог } Л г дп

д (і.МА і д (и д±А і д (ид±4 М

- I ¿и

їх. (кЙ) + §у (кЦ) + I (кЦ) - 2 Е ¿и (и - е„) і (х -

и

V |_ 4 7 ч / т=1

+ I к5и(дп + вф)зБ.

Б 4 '

ЗУ+ (15)

Из первого слагаемого выражения (15), учитывая определение градиента функционала (6), получаем выражение градиента функционала для внутренних точек области решения У

Т, ди дф ди дф ди дф . .

7 ^ + а-удф + (х,у,г) е У (16)

Из второго слагаемого получаем выражение градиента функционала для граничной поверхности Б

д-

7к = ф~дп, (x, у, г) е Б. (17)

Приравнивая нулю третье слагаемое, получаем сопряженное уравнение

дх (кдх) + Жу (кдф ) + ^ (кдф ) = £(- — ^ 6 (х—г'л (18)

где б (х — гт) - дельта-функция.

Из равенства нулю последнего слагаемого получаем граничные условия сопряженной задачи

^ + вф = 0, (х,у,г) е Б. (19)

дп а

В случае граничных условий первого рода имеем

ф = 0, (х, у, г) е Б

Градиентный алгоритм является итерационным. На каждой итерации, используя вектор коэффициентов к(п-1), определенный на множестве т = 1, 2, ..., М контрольных точек и вычисленный на предыдущей (п — 1)-ой итерации (начальное приближение к(0) на первой итерации), решаются прямая и сопряженная задачи и вычисляется вектор градиента функционала ,](п), определенный на том же множестве контрольных точек. Вектор коэффициентов корректируется по формуле

к(п) = к(п-1) — щ{п),

где п — подбираемый коэффициент скорости обучения.

Итерационный процесс завершается, когда значение функционала (4) станет меньше заданной малой величины. В качестве условия завершения итерационного процесса можно использовать малое значение нормы невязки решения прямой задачи на множестве контрольных точек.

Так как обратные задачи являются некорректными, то для их решения применяются методы регуляризации. В данном алгоритме целесообразно применить итерационную регуляризацию [3], использующую в качестве параметра регуляризации число итераций. Число итераций уточнения коэффициента уравнения должно быть согласовано с погрешностью измерений значений в (3). Практически в ходе итерационного процесса значение функционала (4) уменьшается до некоторой величины, а затем начинает расти. Минимальное достигнутое значение функционала соответствует достижимой точности решения обратной задачи.

При использовании сеточных методов вычисление градиентов (16)—(17) представляет сложную задачу [1], так как требуется получить не только решения прямой (1)-(2) и сопряженной задач (18)—(19),

но и производные решений. Для решения прямой и сопряженной задач предлагается использовать радиальные базисные нейронные сети [9], применение которых позволит получить решение в любой точке области решения и аналитически вычислить производные по пространственным переменным, необходимые для получения градиента функционала.

Нейросетевой алгоритм решения краевой задачи

Радиальная базисная нейронная сеть представляет собой сеть с двумя слоями [9]. Первый слой осуществляет преобразование входного вектора x с использованием радиальных базисных функций (RBF). Используются различные радиальные базисные функции. В дальнейшем будем использовать наиболее часто употребляемую функцию — Гауссиан, имеющий вид для k-го нейрона pf (x) = exp {—r^/af.), где x — входной вектор, rf = ^x — Cf II — радиус RBF k-го нейрона, af — ширина RBF k-го нейрона, Cf — центр

m

RBF k-го нейрона. Выход сети описывается выражением и = 22 WfPf (x), где wf — вес, связывающий

f=i

выходной нейрон с k-ым нейроном первого слоя; m — число нейронов первого слоя.

Рассмотрим работу сети на примере решения двумерной краевой задачи, описываемой уравнением Пуассона:

Аи = f (x), x Є Q, (20)

с граничными условиями

и = p (x) x Є dQ,

(21)

где ] и р — известные функции X.

Если в качестве радиальной базисной функции выбрать Гауссиан, то сеть аппроксимирует решение уравнения (20) в виде

и (x) = £ Wf (Pf (x) = у Wfe ak.

f=i

m

f=i

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

(22)

где т — число нейронов первого слоя, гк = \](х1 — С1к)2 + (х2 — С2к)2, (с1к,с2к) — координаты центра нейрона к, ак — ширина ИБЕ нейрона к.

Задав центры и ширину ИБЕ нейронов, веса нейронной сети можно определить, приравнивая нулю невязки в п внутренних и к граничных контрольных точках [10-11]. Контрольные точки могут быть выбраны на некоторой сетке или случайным образом (применение радиальной базисной сети для решения краевых задач является бессеточным методом). От решения (22) несложно вычислить производные, подставляя которые в (20) и (21) получаем уравнения для невязки во внутренних контрольных точках

д2и (xi) дх2

f=i

wf e

(х — Cf) — 0.5af

1, 2,

Уравнения для невязки в граничных контрольных точках имеют вид

’(хз) — pj = J2

jk

wf e

— p (xj) =0, j = 1, 2, ..., k.

f=i

В результате получается переопределенная система линейных алгебраических уравнений, из решения которой находится вектор весов. Рассмотренный алгоритм является одним из алгоритмов обучения радиальных базисных нейронных сетей [12].

2

к

2

к

к

4

a

f

к

Более сложные алгоритмы основаны на обучении радиальной базисной нейронной сети путем настройки весов, центров и ширины нейронов сети с использованием градиентных алгоритмов [13].

Известные алгоритмы решения краевых задач на радиальных базисных нейронных сетях не позволяют решать задачи, описывающие процессы в неоднородной среде, например, уравнения вида

д ( ди \

ахЫ) = >' (23)

Подход к решению уравнений вида (23) при условии дифференцируемости функции к описан в [14]. Рассмотрим подход, основанный на аппроксимации функции к и позволяющий приближенно решать произвольные уравнения вида (23) с гладкими функциями к. После элементарных преобразований (23) получим

дк ди д2и

дхддх + дх2 = ()

В процессе решения коэффициентной обратной задачи будут находиться приближенные значения коэффициента к в отдельных точках. Предлагается аппроксимировать коэффициент к по этим известным значениям с использование радиальной базисной нейронной сети. Аппроксимация функций радиальной базисной сетью хорошо известна [9]. Аппроксимация коэффициента к сетью описывается выражением, аналогичным (22), что позволяет вычислять производные от к, входящие в (24), и решат (24) по тому же алгоритму, что и решение задачи (20)—(21).

Нейросетевой алгоритм решения коэффициентной обратной задачи

Итерационный нейросетевой алгоритм для решения коэффициентной задачи имеет следующий вид:

1. Задание начальных значений к(0) функции коэффициента на множестве контрольных точек.

2. Аппроксимация функции коэффициента с помощью радиальной базисной нейронной сети.

3. Получение решения прямой задачи в виде (22) на радиальной базисной нейронной сети.

4. Решение сопряженной задачи на радиальной базисной нейронной сети аналогично пункту 3.

5. Вычисление вектора градиента Уп по (16)—(17).

6. Коррекция вектора значений коэффициента

к(п) = к(п-1) — п ■ УПк,

где п — номер итерации, п — подбираемый коэффициент.

7. Если ^п) > е, то на шаг 2, иначе конец алгоритма (,1(п) вычисляется по (4), е — малая величина)

Заключение

Разработан нейросетевой алгоритм решения коэффициентных обратных краевых задач с использованием радиальных базисных нейронных сетей, заключающиеся в использовании нейронных сетей для аппроксимации неизвестного коэффициента и решения прямой и сопряженной задач, что позволит аналитически вычислять градиент функционала ошибки по искомому коэффициенту.

Благодарности

Работа выполнена по тематическому плану научно-исследовательских работ Пензенского государственного педагогического университета, проводимых по заданию Министерства образования и науки Российской Федерации.

СПИСОК ЛИТЕРАТУРЫ

1. Самарский А. А., Вабищевич П. Н. Численные методы решения обратных задач математической физики. М.: Издательство ЛКИ, 2009. 480 с.

2. Кабанихин С. И. Обратные и некорректные задачи. Новосибирск: Сибирское научное издательство, 2009. 457 с.

3. Алифанов О. М. Обратные задачи теплообмена. М.: Машиностроение, 1988. 280 с.

4. Коздоба Л. А., Круковский П. Г. Методы решения обратных задач теплопереноса. Киев: Наукова думка, 1982. 360 с.

5. Канторович Л. В., Акилов Г. П. Функциональный анализ. М.: Наука, 1984. 752 с.

6. Алексеев А. К. Сопряженные уравнения в обратных задачах механики жидкости и газа. М.:

МИФИ, 2002. 100 с.

7. Марчук Г. И. Сопряженные уравнения: Курс лекций. М.: ИВМ РАН, 2000. 175 с.

8. Бронштейн И. Н., Семендяев К. А. Справочник по математике для инженеров и учащихся ВТУЗов. Лейпциг: Тойбнер; М.: Наука, 1980. 976 с.

9. Хайкин С. Нейронные сети: полный курс. М.: Вильямс, 2006. 1104 с.

10. Kansa E. J. Motivation for using radial basis functions to solve PDEs // http://www.rbf-pde.org/kansaweb.pdf

11. Nam Mai-Duy, Thanh Tran-Cong. Numerical solution of differential equations using multiquadric radial basis function networks // Neural Networks. 2001. No 14. P. 185-199.

12. Осовский С. Нейронные сети для обработки информации. М.: Финансы и статистика, 2002. 344 с.

13. Горбаченко В. И., Артюхина Е. В. Обучение радиально-базисных нейронных сетей при решении дифференциальных уравнений в частных производных // Нейрокомпьютеры: разработка, применение. 2007. № 9. С. 150-159.

14. Горбаченко В. И., Артюхина Е. В. Бессеточные нейросетевые алгоритмы моделирования физических полей в неоднородных и нелинейных средах // Известия ПГПУ им. В. Г. Белинского. 2010. № 18 (22). С. 130-136.

i Надоели баннеры? Вы всегда можете отключить рекламу.