ВЕСТНИК ТОМСКОГО ГОСУДАРСТВЕННОГО УНИВЕРСИТЕТА Том №271 июнь 2000
УПРАВЛЕНИЕ И ОБРАБОТКА ИНФОРМАЦИИ В СТОХАСТИЧЕСКИХ СИСТЕМАХ
УДК 519.2
А.Л. Богданов, А. Ф. Терпугов
ОПТИМАЛЬНАЯ НЕЛИНЕЙНАЯ ФИЛЬТРАЦИЯ ДИСПЕРСИИ НЕКОРРЕЛИРОВАННОГО ГАУССОВСКОГО ПРОЦЕССА
Находится алгоритм оптимальной нелинейной фильтрации марковского процесса, управляющего дисперсией некоррелированного гауссовского шума В качестве приближенного решения рассматривается нормальное приближение для апостериорной плотности вероятностей и находятся уравнения для апостериорных среднего и дисперсии управляющего процесса
Постановка задачи
Шумы являются главной проблемой, с которой сталкиваются разработчики систем связи, работающих в КВ и УКВ диапазонах. Эти диапазоны очень загружены, и кроме естественных там действуют и техногенные помехи - станционные, помехи от транспорта, промышленных предприятий и т.д. Помеховая ситуация изменяется во времени, так как одни источники появляются, другие исчезают, третьи меняют свою мощность случайным образом. Знание мощности помехи в данный отрезок времени необходимо для адаптации систем передачи информации к этим помехам -например, путем изменения скорости передачи информации, перехода на другой канал и т.д. Поэтому умение оценивать текущую мощность помехи в канале связи является важным с практической точки зрения.
Рассмотрим ситуацию в дискретном времени. Математическая модель ситуации выглядит следующим образом: через равные промежутки времени производятся измерения значения хп i-\,N шума, действующего в канале связи. Будем предполагать, что величины х,\ 1) являются нормальными случайными величинами с математическим ожиданием М{х,} = 0 и дисперсией D{x,} = а2 + f(y(t)); 2) они независимы при фиксированной реализации y{t). Прокомментируем эти предположения.
Предположение о независимости значений х, при фиксированной реализации процесса y(t) говорит о том, что мы имеем дело с широкополосным шумом. Если бы дисперсия шума D{x,} была константой, т.е. £>{*,} = а2, то такой процесс в радиотехнике носил бы имя белого гауссовского шума. Наличие слагаемого f(y{t)) делает дисперсию этого шума
переменной, да и сам процесс x(t) перестает быть гауссов-ским, если y(t) - случайный процесс.
Что касается вида дисперсии D{xt} = а2 + f(y(t)), то первое слагаемое можно трактовать как дисперсию ошибок измерений процесса x(t) измерительным устройством или
как мощность естественной компоненты шума (космические и атмосферные шумы,...), которая почти не изменяется во времени. Второе слагаемое f(y(t)) - это мощность шумов естественного происхождения. Предполагается, что /(_у(/))
- известная функция, в аргументе которой стоит некоторый процесс y(t), в дальнейшем называемый управляющим процессом. Чтобы применить теорию оптимальной фильтрации, необходимо считать, что y(t) является марковским процес-
сом. Описание этого процесса будет уточнено ниже. Задачей фильтрации является нахождение апостериорного распределения вероятностей для управляющего процесса у( /) по
измерениям шума х,.
Случай диффузионного управляющего процесса
Рассмотрим случай, когда у(1) является диффузионным марковским процессом с коэффициентом сноса а(у,1) и коэффициентом диффузии Ь(у,/). Измерения производятся через интервалы времени Д/. Рведем фбозначения у' = у(!), _ у = у[1 + Д/). #
Пусть р{у\у') - условная гшттость вероятностей значения процесса у(1) в момент времени Г + Д/ при условии, что в момент ( значение процесса было равно у'; р(х\у) - условная плотность вероятностей значений измеряемого процесса при условии, что в этот же момент времени процесс у(г) принял значение, равное у. Через уу(у,0 обозначим апостериорную плотность вероятностей значений процесса в момент времени которая зависит от
измеренных значений процесса *(?), сделанных до момента/, включая и сам этот момент времени. С учетом предположений о процессе х(1) запишем:
РШ = -
1
^2я(о2 + /00)"еХР1 2(а2+/(>)) Рассмотрим двумерный марковский процесс {х(0, >■(')}• Как показано в [1], на интервале между измерениями удовлетворяет уравнению
{ 2(ст2 +/(>))}
(1)
w(y,t + Д t) =
\p(y\y')My\t)dy'
-оо_
[ lp{y\y')M.y',tWdy
(2
Пусть Д у = у - у'. Тогда, как показано в [2]: Р(У I У') = 5(Д ¡ЫУ - А * 05'(А У) + +0,5Ь(у-Ьу>*тАу)]+о(А0, а числитель примет вид:
f piy I у'МУ\tW =4v> 0+A t
ду
+ о(Д г). (3) С учетом (3) знаменатель (2) запишется в виде:
TÎ/WMy'.O*'*-
-J
w(y,t) + At Id2
— {a(y,t)w{y,t)}+ dy
+ — {b(y,t)w{y,t)) 2 dy
проделать все эти вычисления. Поэтому необходимо искать приближенные выражения для и{}>,(), которые можно было бы либо вычислять, либо реализовывать техническими средствами. Это возможно сделать тогда, когда оценки процесса у(/) достаточно точны, т.е. апостериорная дисперсия 0{у(()} мала.
Как приближенное решение задачи фильтрации рассмотрим нормальное приближение дня апостериорной плотности вероятностей и^,/), когда
+ OI
<Дt)\fy.
(4)
1
■ exPi ~
сy-m(t))2
Будем считать, что выполнены естественные требования на апостериорную плотность вероятностей:
0и{у, О
(12)
МУ, О-
TPF
->0 ,
ду
ы-
-+0. (5)
Тогда \ —{а(у,1Жу,1)}с1у = О,
-со V
71т ^=I- ^ 'Жу,<)} :: = о, (6)
.¿Зу су, 1
откуда видно, что знаменатель равен 1. Подставим полученные выражения в (2):
w(y,t + At) = w(y,t)+At
2 ду
у[2пЩ ' [ 2D(t)
и найдем дифференциальные уравнения для апостериорных среднего m(t) и дисперсии D(t). Для этого рассмотрим интервал между измерениями. По определению
+00 +40
m(t)= \yw(y,t)dy, №My,tydy-H?(t),
-со —во
откуда m(t + Д /) = ¡yw(y,t + A t)dy. (13)
-во
Заменим \v(y, t^Al) Ьь!ражеНие^ из (7):
•МО
т(/ + Д/) = \yw(y,t)dy +
- — {a(y,t)\v(y,t)} ду
■At ¡у
1 д2 д - ТТ ')}-— {а(У, (МУ, 0}
2 ду ду
+ о(Д/)-
(7)
+
(14)
Перенося влево, деля на ДI и переходя к
пределу при Д Г -> 0, получим
от ду
2 ду
(8)
т.е. на интервале между измерениями апостериорная плотность п(у,/) удовлетворяет уравнению (8) с начальным и граничными условиями
Му^'^у.^+О), (9)
+о(Д/).
Найдем входящие сюда интегралы. Имеем
<мо
\yw{y,t)dy = m{t), (15)
-«О
J^—ки, О^су. t)}dy=о| :: -
+40 +00
- ¡а(у, t)w(y, t)dy = - ja(y, t)w(y, t)dy. (16)
-00 -со
Для вычисления последнего интеграла разложим a(y(t),t) в ряд Тейлора в окрестности точки m(t) :
a(y,t) = a{rrit),t) + {y-nit))
да(у,0
ду
ду
(10)
где Тк - предшествующий моменту / момент измерения. В моменты измерений Тк \viyj) пересчиты-вается по формуле Байеса:
р(х\у)Му,Тк-Щ
+ -(y-m(/))2— 2 ду
+ o((y-m(t))2). (17)
у="(')
w(y,T„ + 0) =
\ p{x\y)w(y,Tt-0)dy
(И)
Подставим полученное разложение в интеграл
J
a(m(t),t) + (y-m(t)y
Нормальное приближение
Уравнения (8)~(11) в принципе решают задачу нахождения апостериорной плотности вероятностей w(y,t), так как уравнение (8) можно решить, по крайней мере, численно, так же как и вычислить входящий в (11) интеграл. Однако реально сделать это практически невозможно, так как интервал Дt между моментами измерений обычно настолько мал, что никакая ЭВМ не успеет
д/
1
y-m(l)
= a(m(t),t) + i-D(t):'\ г
2 ду Окончательно получаем ~ 3
w(y,t)dy = д2а(у,1)
(18)
ym(l)
\y-^{a(y,t)My,t)}dy =
2 сту
- 1Î 'M* = 0 " = 0. (20)
-t°y -
Подставим (15), (19) и (20) в (14): m(t + At) = m(t)+
+ А t
2 су
• (21)
Перенося от(/) влево, деля на àt и переходя к пределу при ât->0, получим дифференциальное уравнение для апостериорного среднего m(t) :
ai 2 ду
(22)
Аналогично для дисперсии
+-оо
£>(f + Ai) = ¡y2w(y,t + M)dy-m2(t+M). (23) —в
Заменим >v(>>,f + д 0 выражением из (7):
+оо -ко
цг+д/)= J/hO,î)^+a/ jy
^{йСк'МкО}-
-— {аО'.ОнО'.О}
dy-m2(t+&t) +о(Л/). (24) Вычислим интефалы, входящие в (24):
7/ЧМ)Ф = Д(0 + 'и2('), (25)
—во
-1 ЧУ = y2a{y,t)w(y,t)
'-2 \ya(y,t)w{y,t)dy. (26)
Разложим функцию ряд Тейлора в ок-
рестности точки m(t) :
уа(у, 0 = m(t)a(m(t), t)+(y- m(t)) х
a(y,t) + y
da(y,t)
ду
+ l-(y-m(t))2x >=»(<) 2
¿У2
у=я(/)
Подставим разложение (27) в интеграл (26): 4,0 д
¡у2 tMy,t)\fy = -2[m(t)a(m(t),t) -
ду
2da(y,t) | d2a(y,t)
ду
ду2
У=т (<)
//•^{ьСмМлО}*'«
- 9у
= у21- {¿(у, OwCy. oJ~ - ¿-{¿Cv, t)}dy =
ЗУ I-® -i ду
= -2yb{y,t)w{y,t)
' + 2 fb(y,t)My,tyiy. (29)
Разложим b(y,t)b ряд Тейлора в окрестности точки m{t) :
db(y,t)
b(y,t) = bim(t),t)+(y-m(t))-
ду
y-"(l)
+o«j-m(t))2).Q 0)
2 ду y—n(t)
Подставим разложение (30) в интеграл (29):
1У21ГТ {biy.tMy,t)]dy =
-» ду
= 2 b(m{t),t)+D{t)
d2b(y,t)
(31)
Вычислим m2(t + ât):
m2 (t + A 0 = m2 (/) + Д/[2ю(/)а(тл(/), /) + ÔVjv,/),
+ m(t)D(t)-
dy2
y*»«)
] + o(A/). (32)
Подставим (25), (28), (31) и (32) в (24): D(t + A/) = D(t)+At[b(y, t) +
+2Z>(,>^ Д + o(A0- . (33)
Перенося D(t) влево, деля на Д/и переходя к пределу при Д / 0, получим дифференциальное уравнение для апостериорной дисперсии D(t) :
—Ц«6(т(0,0 + 2/)(0 dt
ду
y=m(t)
(34)
В интервалах между измерениями апостериорные среднее /и(/) и дисперсия £>(/) описьшаются системой двух дифференциальных уравнений первого порядка
dt 2 ду
dt
+о(0'-ш(0)2). (27)
av
У=!»Ц)
+
У~п>(1)
(35)
], (28)
Для решения этих уравнений надо знать начальные условия +0) и D(Tk +0), которые устанавливаются сразу после производства измерения. Заметим, что значения т(Тк - 0) и D(Tt - 0) непосредственно перед измерением получаются из решения системы уравнений (35) на'предшествующем интервале времени. Выведем формулы для определения m(Tt +0) и D{Tk +0).По определению
m(Tk+0)= ¡My,Tt+0)dy. (36)
-во
Заменим ее выражением из (11):
-КС
¡yp(x\y)w(y,Tk-0)dy
D(Tt -0)
др(х\у)
ду
у-т(Т„- 0)
2 ду*
m(Tt + 0) = •
jK^I^M^.Ti-O)^
Разложим в ряд Тейлора функции р(х | у) и .У^С* I>0 в окрестности точки т(Г4 -0) :
Р(х I У) = Р(х | «(Г, - 0))+(у - m(7-t - 0)) х
(37) (42) дает возможность вычислить т(Тк +0), которое будет начальным условием для уравнения (22). Найдем теперь связь между /ОД +0) и й(Тк -0). По определению
М*\У)
ду
д2р(х\у)
+1о-т(Г,-0))2х
y=m(Tt-0) 2
D(Tk +0)= ¡у2 w(y,Tk+0)cfy-m2(Тк + 0). (43) Заменим w(y9 Тк + 0) ее выражением из (11):
¿у
¡y2p(x\y)wiy,Tk-0)cfy +о((у-т(Тк-0)П (38) = ^-:--т\Тк +0).(44)
у*т(Тк -0)
ур(хI у) = m(Tk -0)р(хI т(Тк -0))+(у-m(Tt -0))х
р(х\у) + у^Щ До'-^-О^х ду J,.i»A-b> 2
2ф(х|>') + >'а2р(х|я
у«яг(Г0-0)
ду ду2
+о((у-т(Тк -О))2). (39)
Запишем числитель в (37) с учетом (38):
¡УР(х | у)Му,Тк-0)dy = m(Tk -0)р(х | m(Tt -0))н
+ ~D(Tk- 0)|
2др(х\у) t уд2р(х\у)
ду
ду1
y*m(Tt- 0)
, (40)
а с учетом (39) знаменатель в (37) запишется в виде
\р{х\у)Му,тк -Q)dy = p(x\m(Tk -0)-
1 д2р(х\у).
y=m(Tk-D)-
(41)
Подставим выражения (40) и (41) в (37): да(Г4 + 0) = т(Г4 -0) +
D(Tk +0) =-
f/>(* I У)™(У> Тк - Q)dy
-оо
В числителе (44) разложим в ряд Тейлора функцию угр{х\у) в окрестности точки т{Тк -0) :
А(* I У) = т\Тк -0)р(х | mft-0))+Ск-т(Г, -0))х
2ур(х\у) + у2^Щ +
ЧУ J>=»(7i-0) + |О'-/я(7;-0))2х
ЧУ qy J>=B(r»-0)
+ о((у-т(Тк - О))2). (45)
С учетом (45) числитель в (44) будет иметь вид
7У2р(х I уМу, Tk-Q)dy = m\Tk - 0)р х
-00
X (XI т(Тк - 0))+1 D(Tk - 0) X [2р(х\у) +
. др(х\у) 2 дгр(х\у)\ + 4у—^— + У ' I • (46) ду ду >=».(г4-о)
Подставляя (41), (42) и (46) в (44), получим:
m2{Tk-0)p{x\m(Tk-0))
P(x\m(Tk - 0)) + ^ D(Tk
2 ду
у=т(Тк-Щ
\wt- 0) & / I \ л др(х\у) id2p{x\y) 2р(х\у) + 4у 'V ду ду ут(Тк- 0)
P{x\m(Jk-V) + \D(Tk-0)dlp£}y) 2 ду у=т(Тк-0)
ш(7;-о)+
др(х\у) y=m(Tt-0) "12
p(x\m(Tk-0)) + ^D(Tk-0) д*р(х\у) ду2 >-«(Г,- 0)
(47)
что дает возможность нахождения 0(Тк + 0), яв- Для нахождения окончательных выражений вычисляющегося начальным условием для уравнения (34). ^ производные, входящие в уравнения (42) и (47):
др(х\у)
= Р(х I У)
ду
Введем функцию 1(х,у) =
хгГ(у)
Ш
2 (о1+/{у)У 2(ст„ + f (у))
*7'00
/'(У)
2 (oî+f(y))2 2(ol+f(y))' Тогда (48) примет вид др(х\у)
(48
(49)
Р2(х,у) = Р?(х,у) +
Тогда (51) запишется в виде дгр{х\у)
дР?{х,у) ду
ду2
= Р(х\у)Р2(х,у).
(52)
(53)
ày
= р(х\у)Р,{х, у).
(50)
Аналогично для второй производной будем иметь
С учетом введенных обозначений уравнения (42) и (47) запишутся в следующем в виде: т(Тк +0) = т(Тк -0) + . 0(Тк -0)Р,{х,т(Тк -0))
дуг
= р(х\у)
Р2(х,у) +
дР?(х,у) ду
(51)
1 + ~ D(Tt - 0)Р2 (х, т(Тк - 0))
(54)
D(Tt
\ I 0) ^ т2(Тк -°Жх>т(Т* , D(-T> + -0Ш*МТк -0))+т{Тк -0)2Р2(х,т(Тк -0))]
1 + j D(Tk - 0)Рг (х, т(Тк - 0))
m(Tk -0)+-
1+±D(Tt - о)Р2(хМТ„ -0))
D(Tk -0)Pi(x,m(Tt -0))
l + ±D(Tk-0)P2(xMTt~0))
(55)
Заключение решениями уравнений (22), (34) с начальными усло-
виями (54) и (55).
На интервале между измерениями в случае raye- Решение этих уравнений уже гораздо проще, чем совой аппроксимации m(t) и D{t) определяются решение исходных уравнений в частных производных.
........................'ЛЙТЁРХТ*УрА'.......................
Х.Хазен Э.М. Теория оптимальных статистических решений и задачи оптимального управления М.: Сов. радио, 1968.256 с.
2. Поттосина С.А., Терпугов А.Ф. // Изв. вузов. Физика. 1993. № 12. С. 54.
3. РадюкЛЕ., Терпугов А.Ф. Теория вероятностей и случайных процессов. Томск: Изд-во ТГУ, 1988.174 с.
4. Гнеденко Б.В. Курс теории вероятностей. М.: Наука, 1969. 400 с.
5. Федосов E.H. //Известия вузов. Физика. 1995. № 3. С. 17.
Статья представлена кафедрой теории вероятностей и математической статистики факультета прикладной математики и кибернетики Томского государственного университета, поступила в научную редакцию 1 марта 2000 г.
УДК 621.391.1:519.2
Н.С.Демин, М.Р. Кадыров
О КОЛИЧЕСТВЕ ИНФОРМАЦИИ В ЗАДАЧЕ ОБРАТНОЙ ЭКСТРАПОЛЯЦИИ ПРИ ПЕРЕДАЧЕ СТОХАСТИЧЕСКИХ ПРОЦЕССОВ ПО НЕПРЕРЫВНО-ДИСКРЕТНЫМ КАНАЛАМ С ФИКСИРОВАННОЙ ПАМЯТЬЮ
Рассматривается информационный анализ задачи обратной экстраполяции (предсказания, прогноза) стохастических процессов по совокупное™ реализаций непрерывных и дискретных во времени процессов, которые зависят не толы® огтекущего, но и от прошлого значения ненаблюдаемого процесса Получено уравнение для совместного количества информации по Шеннону, на основе которого для процесса Орнлейна-Уленбека исследована эффективность набтокний с памяшоелтеителью наблюдений без памят
1. Постановка задачи
Полезный сигнал (ненаблюдаемый процесс) х,
принадлежит к классу л-мерных марковских случайных процессов диффузионного типа и определяется уравнением (в смысле Ито) [1]:
<Ь, = /(/,х, )сЛ + Ф,(/,х, )<*о,, ¿20. (1.1). Сигналом на выходе непрерывного канала передачи (наблюдаемым процессом) является /-мерный процесс г,, определяемый уравнением
t0 < X < t, т = const.
Сигналом на выходе дискретного канала передачи (наблюдаемый процесс) является ^-мерный процесс г|(?и) с дискретным временем вида
(1.3)
(1.2)
П('„ ) = £('., *,., ) + Ф з('„ ) >
и = 0,1.....
В (1.1)—(1.3) ш, и V, - стандартные винеровские процессы размеров г, и г2; Е,(1т) - стандартная белая последовательность, а
б()=ф ,()ф Го, ю=ф 2()ф 1(1 у()=ф }(-)ф Го