УДК 519.2
ИНФОРМАЦИОННЫЙ АНАЛИЗ В СОВМЕСТНОЙ ЗАДАЧЕ НЕПРЕРЫВНО-ДИСКРЕТНОЙ ФИЛЬТРАЦИИ И ОБОБЩЕННОЙ ЭКСТРАПОЛЯЦИИ. Ч. II. ЭФФЕКТИВНОСТЬ НАБЛЮДЕНИЙ С ПАМЯТЬЮ И ОПТИМАЛЬНАЯ ПЕРЕДАЧА СТОХАСТИЧЕСКИХ ПРОЦЕССОВ
Н.С. Демин*, С.В. Рожкова, О.В. Рожкова
*Томский политехнический университет Томский государственный университет E-mail: [email protected]
Исследуется проблема информационной эффективности и оптимальной передачи стохастических сигналов по непрерывнодискретным каналам с памятью в совместной задаче фильтрации и экстраполяции. Основные результаты заключаются в получении формул, определяющих эффективную глубину памяти, кодирующие и декодирующие функционалы.
Ключевые слова:
Сигнал, стохастические системы, фильтрация, экстраполяция, количество информации.
Key words:
Signal, stochastic system, filtering, extrapolation, information amount.
1. Введение
Вопрос информационной эффективности каналов передачи при заданной способе передачи и синтеза оптимальных способов передачи являются одними из основных в теории информации и теории передачи сообщений. В данной работе на основе результатов [1] исследуются указанные вопросы в задаче непрерывно-дискретной передачи с памятью стохастических каналов.
2. Информационная эффективность
наблюдений с памятью
Представляет интерес вопрос об эффективности наблюдений с памятью в задаче экстраполяции, т. е. увеличивает или уменьшает количество информации наличие памяти. Данное исследование проведем для частного случая скалярных стационарных процессов х, 1„ ц(0 определяемых соотношениями
dxl = —оХ'Ж + , а >0,
с12( = Н0х^ + '•■ÍRdvl, ц ) = О0 хт + в1 хь + а2 хТ2 + #£ (т), (2Л)
В качестве меры информационной эффективности наблюдений с памятью Цт) относительно наблюдений без памяти ц(0, когда 61=0, 62=0, в задаче экстраполяции в случае ¿=1 может быть взята величина
Д = Д/'т [х; г0”, ц (")]— А1‘" [х; 4", Ц(" )]
где Д//"[.] и Д//"[.] - приращения количества информации из [1] при ¿=1 в моменты времени ¡т, поступающие соответственно из наблюдений ц(4,) и ц(0. Рассматриваем случай редких дискретных наблюдений. Тогда [2]
А = (1/2) 1п[ уп( s, О/А ")], (2.2)
7>, 1т) = уп(Г) — ^/Ь], (2.3)
7~>,") = 7П(Г) — [Оо2(70(Т))7(К + 0027)], (2.4)
d = [ОУ0(Т) + 01У1( <*, Т) + 07 ( <*, Т )]2,
Ь = V + О02у + С27и ( ) + е2722 ( ) + 2С0 01701 (<1*) +
+20002702(Л) + 20102712 ( <1 , <2 X
где 7, 7о1<^х*), 7о2<^2*), 7п(0, 7п(12), 7п(КЛ), 7‘(Т), 701(Т), 711(/1*,7), 721(/2*,7) определены в (3.2) из [2], /1*=/т-т1 и /2*=/т-т2 являются величинами, характеризующие глубину памяти, Т=з-1т - интервал экстраполяции.
Относительно глубины памяти имеются две крайние ситуации: случай малой глубины, когда ?!*—>0, ^2*—>0; случай большой глубины, когда /2*—-да. Пусть Д0=ИтА при /1*—0, /2*—0 и Дт=ИтД при /1*—да, /2*—да. Из (2.2)-(2.4) и (3.2) в [2] следует
Д0 = (1/2) 1п[(1 — 50)—1], Д„ = (1/2)1п[(1 — <5„)-1], (2.5)
1аУ72
S0 =
(G, + G2)2 + +2G0(Gi + G^X
exp(-2a!T}
[V + 7(Go + G, + G2)2 ]x Q(V + 7G2)(1 - exp(-2aT}) +' +2aV7 exp(-2aT}
2aKy3G02(G12 + G22)exp(-2aT}
(2.6)
[V + 7 (Go2 + k(G2 + G22))] x
Q(V + 7G2)(1 - exp(-2aT}) +
+2aV7 exp(-2aT}
(2.7)
где
7 = (1/5)(А — а), 5 = Н2/Я,
А = ^а2 +8<2, к = (А + а)/2А.
Исследование поведения Д как функции глубины памяти ( для случая /1*=/2*=/* дает следующий результат.
Утверждение. Пусть
С = {О0, 0Р 02): (01 + 02)2 + 20,(0, + 02) < 0}. (2.8)
Если (60,61,62)^, то Д(0 является монотонно убывающей функцией глубины памяти от значения Д0>0 до значения Д„<0, обращаясь в ноль в точке (=Сф для которой справедлива формула
*
teff =
(2.9)
=11п 0 + 02\р+к<)
А П\0^^V2 +к7(01 + 02)2(Г + к7020) ±V)
где знак «—», если 60(61+62)=|60|.|61+62|, и знак «+», если 60(61+62)=-|60|.|61+62|. Если (^ДД^, то Д((*)<0 для всех (’>0.
Дадим комментарии к полученному результату. Величина С=(*1Г может быть определена как эффективная глубина памяти и получена как единственный корень уравнения Д((*)=0, которое имеет вид
(01 + 02)2^ + ку0Ц) ехр{—2А< *} +
+2V00(01 + 02)ехр{—А< *} —
-G2(G + G2)2ky = 0.
(2.10)
При (<('$ дискретные наблюдения с памятью являются более эффективными, нежели дискретные наблюдения без памяти, т. к. при этом Д((*)>0 и составляющие 01хь и Охч сигнала ц((т) несут дополнительную информацию. При (=($ дискретные наблюдения с памятью являются менее эффективными, нежели дискретные наблюдения без памяти, так как при этом Д(С)<0. Данный эффект объясняется тем, что при достаточно большой глубине памяти информационные связи между текущими значениями сигнала хт и его прошлыми значениями хГ[ и хь исчезают и составляющие 61хГ[ и Охч сигнала ц((т) не несут никакой инфор-мац1ии, а д2ействуют как дополнительный шум.
Влияние непрерывных наблюдений на информативность дискретных наблюдений осуществляется через параметр 5=И02/Я, который пропорционален отношению сигнал/шум по интенсивности в непрерывном канале наблюдения. При 5-—да получим, что Д//-[.]—■ 0 и Д//-[.]—■ 0, что дает Д—• 0. Таким образом, при достижении абсолютно точного измерения в непрерывном канале дискретные наблюдения как с памятью так и без памяти не привносят новой информации о значениях х$ при любых Т. При 5-—0, что соответствует случаю отсутствия непрерывных наблюдений, справедливы формулы (2.2)—(2.9), в которых 7=Q/2a, А=а, к=1, т. е. в этом случае появляется явная зависимость от времени корреляции ак=1/а процесса х,.
3. Оптимальная передача стохастических процессов
В данном пункте для случая непрерывно-дискретной передачи с памятью стохастических сигналов рассматривается решение одной из базовых задач теории информации и теории передачи сообщений [3]. Пусть процессы х, г,, ц((т) являются скалярными процессами (см. (2.1)—(2.3) в [1]) и N=1, Д.)=Д ()х,, Ф2(.)=Ф2( (), Ф()=Фъ((т).
Ставится задача: в классе кодирующих функционалов К={Н1; 0}={А (.); ,?(.)}, удовлетворяющих энергетическим ограничениям
М{й2(?, хт, г)} < /г(<),
М{ё2(<т,х<т,^г)} < ), (3.1)
найти функционалы к°(.) и £*(.), обеспечивающие относительно задачи фильтрации минимальную ошибку декодирования Д0(()=1пГД((), где
Д(t)=M{[x-¿u(t)]2} является ошибкой оценки фильтрации /и( ()=M{xJг0',ц0m} процесса х,. Структура к(.) и g(.) такова, что дискретный канал является каналом с памятью, а непрерывный — каналом с чистым запаздыванием, т. к. в нем передается только прошлое значение хг сигнала.
Теорема. На классе К;={Н1;;0,} линейных функционалов
Н = (й(-): к(г, хТ, z) = к(г, z) + Н,($, г)хт},
= | ё ():ё (<т ,х" Д,2) = |
' 1= ё(<т , г) + 00^т , г)х,т + 01(<т , 2)х,\
1) оптимальные кодирующие функционалы И>((,х1,г°), g((т,х,т,х1,г°) имеют представления
г0) =-Н“(?, г >°(т, <),
Н0(<, г0) = [к(<)/Д°п(т, <)]1/2,
g\tm, z0) = ~G00(tm, z>4 -0), G00(tm , z 0) = [ g (tm )/ AVm - 0)]^, G"(tm , Z°) = 0, и имеет место свойство
•О Xt;(z Xfo0)m ]=sup1 [ х; L
где sup берется по всем {A(.);g(.)}eK; и /Л х;(z X«] =
= /°[•] + (1/2) X ln[1 + (g(t)/У(t,))] +
(3.3)
(3.4)
(3.5)
h(a) (A0i(r,a))2
R(a) A (a)A0i(r,a)
-Q(a)
1
1
A0 (a) D(a)
da,
(3.6)
Q(t) =®2(t), R(t) =®2(t), У (tm ) =®2(tm ), mV)=M{xt |( z x^x, mV, t)=m{xt |( z0) 0,(^°) m},
A 0(t) = M{[ Xt-mV )]2},
A0i(t, t) = M{[xt-m\t, t)]2},
A 0i(t, t) = M{[ Xt-M°(t)][ xt-mV, t)]};
2) оптимальное сообщение {z°;^0(tm)} определяется соотношениями
dzt = [h(t V A0i(r, t )]1/2 x
x[xt - m°(t, t)]dt + Ф2(t)dvt, n°(tm ) = [ g (tm V A0(tm - 0)]V2 X x[x^-M0(tm -0)]dt + Ф3(tm)^(tm); (3.7)
3) оптимальное декодирование ^(^ и минимальная ошибка декодирования Д0(,) на интервалах определяются уравнениями
d ¡j°(t) = F (t )^°(t )dt +
+R _I(t)
h(t)
1/2
Л°(т, t) d Л 0(t )/ dt =
Л 01 (T, t )dz0,
2 F (t) - R ~\t )h(t)
(ЛО1Т , t))2 Л 0(t )Л01(т, t)
xЛ0(t) + Q(t)
(3.8)
(3.10)
ЛО1Т, tm - 0) = Л01(т, tm - 0)
1 +
g (tm )
V (tm )
V (tm ) + g (tm )
2
1 —
(Ot, tm - 0) )
Л0(т, tm - 0)Л01(Т, tm - 0)
(3.11)
Л01(Т, tm ) = V (tm )[V (tm ) + g (tm )Г Л0^, tm - 0).
Доказательство. При заданных {h(.); #(.)} е|H1;;Ge| на интервалах времени tm<t<tm+1
v(f) = M{xt|z0^}, ц(т, f) = M{xt |z'o,^^},
7(0 = M{[xt -^(t)]2 |z0Xh 7ll(т, 0 = M{[X - И(T, t)]2 |z0, <}
701 t) = M{[Xt -^(t)][Xт-v(т, t)] |z0,^0m}
определяются уравнениями [2] d¡u(t) = F(t)^(t)dt + R- (t)H 1 (t,z)701(t,t)dzt, (3.12)
dy(t )/ dt = 2F (t )y(t) -
-R 1 (t )H2 (t, z)702(T, t) + Q(t), (3.13)
d ¡d(z, t) = R _1(t )H 1(t, z )7u(t, t )dzt, dyn(T,t)/ dt = - R ( t) H2 ( t, z) y2 (t, t), d/01(T, t)/ dt =
=[F (t)- R~‘(t) H12(t, z )7ll(T, t)]7lo(T, t) (3.14)
с начальными условиями
/ (<т ) = / (<т — 0) + [ё(<т )/Д 0 (<т — 0)]^ X
Х^(<т ) + ё(<т )ГУ(<т ),
Д0(т) = v(tm )^(т)+ёот, )]—1 д 0 (т — 0); (3.9)
4) ¿и°(т,0, Ди0(т,(), Д010(т,() на интервалах
определяются уравнениями
d ц\т,<) = Я-'(<)[ т/Д01(т,<)]^2 dzt0, d Д°11(т, = —Я-1(<)/г(<)Д01(т, <),
d Д01 (т, <)/^ = [ F (<) — Я-'(<Ж< )]Д 01 (т, <) с начальными условиями
^о(т, <т) = цо(т, т — 0)+д01(т, т — 0) х
Х[£(<т )/Д0 (<т — 0)]12[V(<т ) + ё(<т )ГУ О, ),
V (<т ) х
W ‘(tm , z )j?(tm ),
W-\tm, z),
с начальными условиями
И(<т ) = М<т — 0) +
+[00 (<т , 2)/(<т — 0) + 01(<т , г^^т, ^ — 0)] X
хШ-\<т, г)ц(<т), (3.15)
7(<т ) = 7(<т — 0) —
—[00 (<т, г)7(<т — 0) + 01 (<т, г^^, ^ — 0)]2 X
хШ-\<т, г), (3.16)
/л(т, <т) = /л(т, т — 0) +
00 (<т , z)7ol(т, <т — 0) +
_ + 01(<т , z)7l1(т, <т — 0)
7l1(т, <т ) =7l1(т, <т — 0) —
00 (<т , z)7ol(т, <т — 0) +П2 _ + 01(<т , г)711(т:. <т — 0)
701(т=. <т ) = 701 (т^’ <т — 0) —
—[00 (<т, г)7(<т — 0) + 01 (<т, г )701 (т, <т — 0)] X
00 (<т , г)701 (т^’ <т — 0) +
_ + 01(<т , г)711 (т, <т — 0)
— [А(<, г) + Н,(<, г)/л(т, t)]dt,
?7(<т ) =
ё(<т , г) + 00 (<т , г) ^(<т — 0) +
_+С1(<т, г)и(т, <т — 0)
^ (<т, г) = V (<т ) + 00 (<т, г)7(<„ — 0) +
+ 012(<т , 711 (<т — 0) +
+200(<т , г)°1(<т , 7 01 (<т — 0). (3.20)
Так как M{.}=M{M{.|г0'm,ц0m—1}}, то использование (3.2) в (3.1) дает
М{ё 2(-)} =
ё(<т, г) + 00 (<т, г)^(т — 0) ^2 _+С1^т , г)и(т, <т — 0)
W 1 (tm , z),
= ^(tm ) -
(3.17)
(3.18)
(3.19)
= M
+M
G0 (tm , z)7 (tm - 0) +
+ G12(tm , Z)7ll(T, tm - 0) + +2G0(tm , z )G1(tm , z)7ol(T, tm - 0)
(3.21)
Пусть до момента ,<,т передача шла оптимальным способом. Тогда из (3.16), (3.21) для Д(tm)=M{7(tm)} по неравенству Иенсена
M{F1}>(M{í'})—1 [3] и (3.9) получим
Д(<т ) > V (> )[V (<т ) + ё (<т )]—1 А 0(<т — 0) =
= Л0(^),
(3.22)
Использование (3.4) в (3.16) дает, что 70(,т)=Д0(,т). Совпадение 70(,т) с нижней границей (3.22) для Д(/т) доказывает оптимальность кодирования (3.4). Так как M{.}=M{M{.|z0m■,ц0m—1}}, то использование (3.2) в (3.1) дает
M{h2(-)} = M{[h(t, z) + Hi(t, z)ц(т, t)]2} +
+M{H2(t, z)Yn(T, t)} < h(t). (3.23)
Если h (.)=h°(.) и g (.)=g"(.) тогда Y(0, Yu(*,t) и Y010(T,t) не являются случайными величинами. Тогда из (3.13), (3.23) для A(0=M{y(0} по неравенству Иенсена M{exp{i}}>exp{M{y}} следует A(t)>A0(t), где A0(t) определяется уравнением
dA0(t)/dt = (2F(t) -R~\t)h(t)) x
x[(y0i(^, t))VY°(t)Yi0i(^, t)]A0(t) + Q(t), (3.24)
A0 (t) 11=tm =A0(tm ).
Для Y(t) имеем уравнения
dY0(t)/dt = (2F (t) - R ~\t)h(t)) x
x[(y0i(^, t))VY°(t) A0i(t, t)]Y0( t) + Q( t),
Y°(t)| t=tm =A0(tm). (3.25)
Так как y110(t,/)=A110(t, t), y01°(t,0= A010(r,t), то решения (3.24), (3.25) совпадают, т. е. Y(t)=A0(t), что доказывает оптимальность кодирования (3.3). Уравнения (3.7)—(3.11) следуют в результате подстановки (3.3), (3.4) в (3.12)—(3.20). Справедливость данного результата для произвольного интервала времени tm<t<tm+1 следует по индукции.
Согласно неравенству Ихары /t[.]<(1/2)ln[D(t)/A(t)] [3]. Тогда
sup /[ Xt; z0 ^ ] = /t0[ Xt; (z 0)t0,(^0)m ] =
= (i/2) ln[ D( t)/A0( t)]. (3.26)
Так как
pt(x) = N{x; M°(t), A0(t)} и p(t, x) = N{x; a(t), D(t)} при кодировании (3.3), (3.4), то /Л Xt;(z Xrt] =
= M{ln[ p, (Xt)/ p(t, Xt)]} =
= (i/2)ln[ D( t)/A0( t)]. (3.27)
Совпадение (3.26) и (3.27) обеспечивает справедливость свойства (3.5). Из (3.27) следует
d/t°[ x, ;(z 0)Q,On°m] = dt
= i f _i_ dD(t)_________i_ dA0(t)Л
2 v D(t) dt A0(t) dt
Так как
dD(t )/dt = 2F (t )D (t) + Q (t), тогда из (3.8), (3.28) следует что для tm<t<tm+1
d/Q[ x, ;(z °)0,(n°)m] = dt
(3.28)
h(t) (A0i(t, t))2
R(t) A0(t)A0i(T,t)
-Q(a)
i
i
A0 (a) D(a)
(3.29)
Использование (3.9) дает, что /I [ x^;(z °)0m ,(^°)m ] =
= (i/2) ln[D(tm)/A0(tm -0)] =
= /? _0[ •] + (V2)ln[i + g( tm ) /У( tm )].
(3.30)
Тогда (3.6) следует из (3.29), (3.30). Теорема доказана.
Заключение
Рассмотрены задачи информационной эффективности дискретных каналов наблюдения с памятью относительно каналов без памяти в задаче экстраполяции и оптимальной непрерывно-дискретной передачи по непрерывному каналу с чистым запаздыванием и дискретному каналу с памятью. Получены формулы, определяющие эффективную глубину памяти и оптимальный способ передачи.
Работа выполнена при поддержке ФЦП«Научные и научно-педагогические кадры инновационной России» на 2009-2013гг., проект № 02.740.11.5190
СПИСОК ЛИТЕРАТУРЫ
1. Демин Н.С., Рожкова С.В., Рожкова О.В. Информационный анализ в совместной задаче непрерывно-дискретной фильтрации и обобщенной экстраполяции. Ч. 1. Общий случай // Известия Томского политехнического университета. — 2010. — Т. 317. — №5. — С. 6—11.
2. Демин Н.С., Сушко ТВ., Яковлева А.В. Обобщенная обратная экстраполяция стохастических процессов по совокупности непрерывных и дискретных наблюдений с памятью // Известия РАН. Теория и системы управления. — 1997. — № 4. — С. 48—59.
3. Липцер РШ., Ширяев А.Н. Статистика случайных процессов. — М.: Наука, 1974. — 696 с.
Поступила 12.07.2010 г.