СИСТЕМЫ, СЕТИ И УСТРОЙСТВА ТЕЛЕКОММУНИКАЦИЙ
УДК 621.397.13
Оптимальный алгоритм приема М-сигналов при использовании модели несущей в пространстве состояний
Вадим Михайлович Советов, д. т. н., с.н.с., проф. каф. «Информационные системы», e-mail: [email protected]
Павел Александрович Медведев, аспирант, e-mail: [email protected]
ФГОУ ВПО «Российский государственный университет туризма и сервиса», Москва
Синтезирована схема оптимального приема М сигналов при представлении несущего сигнала динамической моделью в пространстве состояний и использовании вектора начального состояния в качестве информационного вектора; показано, что оптимальный приемник М сигналов представляет собой М каналов, в которых для вычисления апостериорной плотности вероятности М гипотез применяются фильтры Калмана, и что данный алгоритм может применяться также для приема сигналов с несинусоидальной несущей, при представлении их динамической моделью.
The authors synthesized the scheme of optimal reception of signals M in the presentation of the carrier signal dynamic model in the space of state and used the vector of the initial state as an information vector. The article shows that the optimum receiver signal M is an M channels, in which to calculate a posteriori probability density of M hypotheses Kalman filter is used, and that this algorithm can also be used for receiving signals from the no sinusoidal carrier, when presenting their dynamic model.
Ключевые слова: динамическая модель, фильтр Калмана, оптимальный прием, пространство состояний, матрица переходных состояний, оптимальная оценка, апостериорная вероятность.
Keywords: dynamic model, Kalman filter, optimal reception, the space of states, the matrix of transition states, the optimal estimate, a posteriori probability.
В системах передачи информации для представления сигнала можно использовать модель динамической системы в пространстве состояния [1, 2]. В частности, дискретный сигнал можно представить в виде уравнения перехода состояний х(к +1) = Ах(к) и уравнения выхода у (к) = Сх(к),
где А - матрица перехода состояний (МПС), при умножении на которую вектора состояния х(к) на к-м шаге получается вектор состояния на (к+1)-м шаге; С - матрица выхода, определяющая связи переменных состояний с выходом системы.
Например, модель динамической системы в пространстве состояний, образующей гармоническое колебание, имеет вид
1 к + 1 ' 0 1 ' x1 (к)
х2 (к +1) -1 2cos®r х2 (к)
y (к ) = [1 0]
x1 (к) х2 (к)
где
= А - МПС, которая находится
' 0 1 "
-1 2со$,а>Т
из 2-преобразования синусоидального сигнала; со = 2п/ - угловая частота / - частота несущей); Т - интервал дискретизации.
Начальная фаза и амплитуда колебания будет зависеть от вектора начального состояния. Для образования дискретного гармонического колебания с начальной фазой в и амплитудой А0 в качестве начального вектора состояний необходимо задать вектор
в, A
(0) = Ao
sin(e) sin (oT + в)
Частоту сигнала определяет МПС А, поэтому для изменения частоты сигнала необходимо изменить элемент матрицы 2cos coT и начальный вектор. Использование данной модели не предполагает действительного изменения методов генерации и модуляции сигналов, однако позволит использовать рекуррентные алгоритмы обработки при приеме сигналов.
Цель статьи - синтезировать оптимальный алгоритм обработки при приеме М различных сигналов на основе представления их динамической моделью в пространстве состояний.
Рассмотрим задачу оптимального приема одного из М сигналов, представленного моделью в пространстве состояний в общем виде в дискретном времени. Пусть начальный «-мерный вектор хг(0), i = 0,1,2,...,M -1 представляет собой случайный вектор сообщения с детерминированными, но неизвестными на приемной стороне значениями элементов. Тогда будем иметь случай выбора одной среди М гипотез H0, H1,..., HM-1 в любой момент времени k, пока длится эксперимент:
H i : x i (k +1) = A iXi (k); y i (k) = Cx i (k) + v(k), k = 1,2,... i = 0,1,2,.,M -1. (1)
Аддитивная помеха v(k) представляет собой белый шум с нормальным распределением и известными статистическими характеристиками: математическое ожидание -E{v(k)} = 0; ковариационная матрица -
cov{v(k), v(j)} = Vv (k)SK (k - j). (2)
Решение о выборе той или иной гипотезы принимается по k последовательным наблюдениям Y(k) = y(1), y(2),...,y(k). (3)
Как известно [3], минимизация среднего риска связана с выбором гипотезы, для которой минимально
M-1
(4)
j=0
j
Здесь Р. = Р(Н.) - априорные вероятности гипотез Н. ; С., С. - стоимости, связанные с выбором ошибочной и правильной гипотез; /у|н. (у | Ну) - условные плотности распределения
вероятностей.
Определим отношение правдоподобия Л г(у), 1 = 1, 2,_,М -1 как
(у) = /¥|Ні(у 1 Н) , ,= 1,2,.,М -1,
/у|Но(УІНо)’ ’’ ’ ’
и член Jj (у) как
I ( ) М-1
^ (У) = Г < \ Н ' = Т Р ( - См)А/« (5)
•/у|н0 (У1 Но) “1
Тогда правило решения соответствует выбору гипотезы, для которой (5) минимально.
В задачах связи обычно полагают стоимости
Сп = 0 и Су- = 1, іф ] и ] = 0,1,., М -1.
В этом случае минимизация риска эквивалентна минимизации вероятности ошибки. После подстановки указанных значений в (4) оно принимает вид
М-1
I, (у) = Т Р( Н] )/у|н, (УН) =
j=0 '* j
M-1
= £ Р(Н. | У/ (у) = [1 - Р(Н | ¥)]/¥ (у). (6)
У=о
Как видно, минимизация (6) эквивалентна максимизации Р(Н | У), являющейся апостериорной вероятностью гипотезы Н при наблюдении вектора у . Если дополнительно априорные вероятности равны
Р(Н0) = Р(Нх) =... = Р(Нм-1) = р , то уравнение (6) принимает вид М-1
I, (у) = р 2 /у\н} (у I Ну) = р[1 - Р( Н | У)],
j
j=0 '* }
i = 0,1, 2,.,M -1.
(7)
В правиле решения (7) приемник вычисляет апостериорные вероятности Р(Н I У), 1 = 0,1, 2,_, М -1
и решает, какая из гипотез соответствует наибольшей апостериорной вероятности. Таким образом, минимизация вероятности ошибки приемника соответствует максимизации апостериорной вероятности.
Поскольку решение о выборе той или иной гипотезы выбирается по к наблюдениям (3), приемник вычисляет апостериорные вероятности
Р[х(к), Н|У(к)] = Р[х г (к) | У (к)],
1 = 0,1, 2,_,М -1
за к шагов. Вектор состояния х ,(к) может принимать одно из М значений.
В соответствии с теоремой умножения Р[х , (к), ¥(к)]
P[x i (к)\Y(k)] = -
P[Y(k)]
Представим Y(k) как объединение нового наблюдения у (к) и Y(k -1) предыдущих наблюдений [4]:
?[,,(к)Ц(к)] = ^(к),у(к),¥(к-1)] . (8)
1 Л '' ' ” Р[у(к),У(к-1)] ' '
Числитель выражения (8) можно представить
как
P[x, (k), y(k), Y(k -1)] =
= P[y(k) | x,(k)]Pr[x,(k) | Y(k- 1)]P[Y(k-1)].
Отсюда
P[x, (k )|Y(k)] =
= P[y(k) | x, (k)]P[x, (k) | Y(k -1)] Pr[Y(k -1)] (9) P[y(k),Y(k -1)] . ( )
Применяя теорему умножения к знаменателю, запишем его как
P[y(k), Y(k -1)] = P[y(k) | Y(k - 1)]P[Y(k -1)], тогда (9) примет вид P[x, (k )|Y(k)] =
= P[y(k) | x, (k)]P[x, (k) | Y(k -1)]
P[y (k )|Y(k -1)] . ( )
Таким образом, приемник должен вычислить апостериорные вероятности по формуле (10) для всех i = 0,1, 2,_, M -1 и выбрать наибольшее зна-
чение.
Вычислим P[x, (k)| Y(k)] путем нахождения каждой плотности вероятности в выражении (10).
1. Сначала найдем плотность вероятности P[y(k)| x, (k)]. Эта вероятность соответствует вероятности получения наблюдения y(k) при условии передачи гипотезы Ht, т. е. вектора состояния x, (k). Наблюдение y(k) связано с состоянием системы x, (k) линейным уравнением
y (k) = Cx, (k) + v(k) (11)
и принимает значение в зависимости от гипотезы.
Плотность вероятности P[y(k) | x, (k)] будет нормальной, так как (11) является линейным уравнением, вектор x, (k) не случайный и известен для рассматриваемой вероятности, а v(k), согласно (2), - нормально распределенный вектор, не зависящий от x, (k). Поэтому для записи этой плотности вероятности необходимо найти лишь математическое ожидание и дисперсию. Среднее значение процесса выражается в виде E{y(k )|x, (k)} =
= E{[Cx, (k) + v(k )]|x, (k)} = Cx, (k), так как, согласно (2), E{v(k)} = 0 .
Дисперсия случайного процесса у(к) по определению равна
уаг[у (к) | х, (к)] =
= Е{[у (к) - Сх, (к)][у(к) - Сх, (к)]т } =
= Е{у(к) у(к )т } = Уу (к), так как, согласно (11), у (к) - Сх, (к) = у (к).
Отсюда плотность вероятности Р[у(к) | х, (к)] будет иметь вид
1
P[y(k)| хг (к)] =
(2п)”2 {det[Vv (к )]}2
(12)
X exp j- 2[y(k) - Схг (к )]т V;1(k )[y(k) - СхДк)]
или
P[y(k )|хг (k)] =
(2п)”2 {det[Vv (k )]}1/2
Х ехр {- 2 Ут (к )Уу1 (к )у (к)}.
Как видно, плотность вероятности
Р[у(к) | х, (к)] есть плотность вероятности нормально распределенной помехи у(к).
2. Далее найдем плотность вероятности Р[х, (к)| Y(k -1)]. Данная плотность вероятности представляет собой вероятность приема гипотезы Н,, т. е. приема х, (к), в результате обработки Y(k -1) наблюдений. Ранее предполагалось, что гипотезы равновероятны и приемник должен вычислить апостериорную плотность вероятности отдельно для каждой гипотезы. Результат вычисления по определению является оценкой х, (к | к -1) = Ах, (к -1) . В каждом канале оценка является нормально распределенной случайной величиной, так как алгоритм обработки предполагается линейным при воздействии только нормальных помех. Для каждой гипотезы математическое ожидание оценки будет х,- (к):
Е[х, (к)| Y(k -1)] = х, (к).
Дисперсия хI (к | к -1) при полученной последовательности Y(k -1) наблюдений совпадает с дисперсией ошибки оценки Ух, (к | к -1):
уаг[х, (к) | Y(k -1)] = У*, (к | к -1) =
= АУх, (к - 1)А т.
Таким образом, плотность вероятности Рг[х,- (к)| Y(k -1)] в каждом канале оценки будет иметь вид
1
P[x, (k) | Y(k -1)] =--------------------------2-— х
L iV л v (2п)и/2[det Vx. (k | k - 1)]1/2
хexp{-2[xi(k | k -1) - xt(k)]т х
xVi.1(k | k - 1)[X i (k|k -1) - Xi (k)]}. (13)
Используя определение ошибки оценки состояния
Xi (k | k -1) = [xi (k | k -1) - Xi (k)], выражение (13) запишем как
P[xi (k) | Y(k -1)] =----------------------------1-— x
i (2n)n 2[det Vx. (k | k - 1)]1/2
x exp {- 2 X ?(k | k -1) Vx^k | k - 1)X г (k | k -1) j. (14)
3. Вычислим теперь P[y(k)| Y(k -1)] в каждом канале приема. Используя модель наблюдения (11), запишем
P[y(k) | Y(k -1)] = P[(CXi (k) + v(k)) | Y(k -1)]. Плотность распределения нормальная, так как v(k) имеет нормальное распределение и не зависит от Y(k -1) и x, (k), а вектор x, (k) не случаен. Среднее значение случайной величины соответствует полученной оценке гипотезы в каждом канале:
E[y(k) | Y(k -1)] = E[(Cx, (k) + v(k)) | Y(k -1)] = = CE[x, (k) | Y(k -1)] + E[v(k)) | Y(k -1)] =
= cx i (k | k -1).
Дисперсия y(k) по определению равна var[y (k)| Y(k -1)] =
= E {[y(k) - Cxi (k | k -1)] [y (k) - Cxi (k | k - 1)]т j. Подставим наблюдение (11) и получим var[y (k )| Y(k -1)] =
= E {[Cx, (k) + v(k) - Cxi (k | k -1)] x
x[Cx, (k) + v(k) - Cxi (k | k - 1)]т j =
= E {[Cxj (k | k -1) + v(k)] x
x[Cx i (k|k-1)) + v(k)f }= CVx. (k|k -1)Ст + Vv (k). Условная плотность вероятности P[y(k) | Y(k -1)] для каждого канала будет иметь вид P[y(k )|Y(k -1)] =
=____________________1____________________
= (2п)л/2{det[CVx.. (k | k - 1)Ст + Vv(k)]}^2 X
X exp ^- 2 [y (к) - Cxt (к | к - 1)]т [CVx (к | к - 1)Ст +
Все составляющие (10) получены, и можно объединить (12), (14), (15) для нахождения плотности вероятности Р[х, (к) | ¥(к)] в каждом канале:
Р[х, (к )|¥(к)] =
(аеі[СУх, (к|к - 1)ст + У¥ (к )]}^2
—_______________:____________________________х
(2п)п2 {с1е1[Уу (к)]}2 [аеі Ух, (к | к -1)]1 Х ехр{-2^т (к )У'-1(к) у(к) -
-1X т(к | к - 1)У5-1(к | к - 1)Х г (к|к -1) +
2 г
+1[у(к) - СХ , (к | к - 1)]т[СУх(. (к | к - 1)Ст + 2
+Уу (к)]-1[у(к) - сх і (к | к -1)]}. (16)
Обозначим постоянный множитель в виде
А, — {(2п)” ае1[Ух_ (к)]}-^ —
I -1/2
(2n)n det[Vv (к)][det Vx t (к|к -1)]
. (17)
[ ае1[СУх . (к | к - 1)Ст + Уу (к)]
Плотность вероятности Р[х г- (к) | У (к)] является нормальной, так как Р[х - (к )| У (к -1)] нормальная. Следовательно, (16) с учетом (17) можно представить как
P[xt(к) | Y(£)] = A exp{-^[І,(к) -хг(к)]т X
xVx-1^ )[Іг(к) - хг (к)]},
(18)
+Vv (к )]-1[y (к) - cx г(к|к -1)]} .
(15)
где х г(к) - математическое ожидание случайной
оценки х i (к), представляющее истинное значение вектора состояния в момент к при справедливости гипотезы H¡, i = 0,1, 2, , М -1.
Отличие (18) от полученной в [4] апостериорной плотности вероятности при решении задачи оценки вектора состояния заключается в том, что для заданной гипотезы Н значение хг- (к) также задано, т. е. хг- (к) является не случайным вектором, как в задаче оценки. В то же время оценка, вычисляемая как х - (к) = Е {хг- (к )| У (к)}, является
случайной величиной с нормальным распределением (16) или (18), с математическим ожиданием хг- (к) и матрицей ковариации Ух (к | к).
Очевидно, что случайная оценка х- (к) для последующего сравнения при принятии окончательного решения должна выбираться в точке максимума апостериорной вероятности (16). Для вычисления максимума плотности вероятности
(16) прологарифмируем ее и запишем в виде
1п {Р[х, (к )|¥(к )]}= 1п А --2[у(к) - Сх, (к)]т У-1(к)[у(к) - Схг (к)] -
- ![х, (к) - X, (к | к - 1)]т ух-,1 (к | к - 1)[х, (к) -
2 г
- х, (к|к -1)]+2[у (к) - сХ , (к|к - 1)]т х
х[СУх (к | к - 1)Ст + У; (к)]-1 х
х[у (к) - СХ, (к|к -1)]. (19)
Оценка максимума апостериорной вероятности для каждого канала приема вычисляется дифференцированием (19) и приравниванием результата к нулю:
V X 1п {Р[Х,(к )|¥(к )]}| х.и )= х.п-р(,) = 0.
При дифференцировании используем правило [3]
Vх (аТЬ) = Vх (ат )Ь + Vх (Ь т )а.
В результате получим Стуу-1(к)[у(к) - СХг,тар(к)] -
-у.1 (к| к - 1)[х,-тар (к) - Х,(к | к - 1)] = °.
Решив полученное выражение относительно X ,,тар (к), придем к выражению
X,,тар (к) = [У- (к | к - 1) + СтУ;,1 (к)С]-1 X
х[Ух-1(к | к - 1)Х, (к | к -1) + СтУ;-1(к)у(к)]. (20)
Как известно [3, 4], полученное выражение (20) может быть представлено в виде алгоритма Калмана:
X, (к) = АХ, (к -1) + К, (к)[у(к) - САХ, (к -1)], (21)
Ух, (к + 1|к) = АУх , (к )А т, (22)
К, (к) = Ух, (к | к-1)С[СУх, (к | к -1)С + У;Г1, (23)
Ух, (к) = [I - К, (к)С]Ух, (к|к -1). (24)
Таким образом, апостериорная плотность вероятности (18) в каждом канале при представлении несущей динамической моделью в пространстве состояний может быть вычислена по алгоритму Калмана (21) - (24).
Теперь, имея апостериорные плотности вероятности Р[х, (к) | ¥ (к)] для каждой гипотезы, можно, согласно (7), найти максимальную из них.
Воспользуемся известным приемом и будем искать максимум не самой плотности, а ее логарифма:
1п {Р[х, (к )|¥(к )]} =
= 1п А -2[Х,(к) -X,(к)]тУХ-,1 (к)[Х,(к) -X,(к)].
2
Будем считать, что матрицы ковариации ошибки оценки одинаковы, тогда коэффициент
(17) для каждой гипотезы одинаков и не влияет на максимум. Достаточная статистика примет вид
l = -i[iт(k^^X,(k) -X т(k)Vx,1(k)iг(k) -
2
- X т (k )Vx-1(k)x , (k) + X т (k)Vx/(k )x , (k)]. (25)
Поскольку Vx . (k) - симметричная матрица по определению, то
X т (k )Vx,1(k )X,(k) = X т (k)Vx,1(k)x,(k) и выражение (25) можно записать как
I = - 2[X т (k)V-(k )X ,(k) - 2X т (k )VX-1(k)X,.(k) +
+X, (k)VX-1(k)X, (k)]. (26)
Справедливой будет та гипотеза, у которой (26) имеет максимальное значение. Оценка X ,(k) и матрица ковариации ошибки оценки VX . (k) вычисляется в отдельном канале приема для каждой гипотезы по алгоритму Калмана (21) - (24). При этом, так как в алгоритме Калмана, согласно (22) -(24), матрицы ковариации VX . (k) и весовые матрицы K ,(k) не зависят от наблюдения, можно использовать один и тот же алгоритм их вычисления для всех каналов приема. В каждом канале приема для разных гипотез надо вычислять только оценку с использованием уравнения (21).
Таким образом, алгоритм оптимального приема М-сигналов, представляющих собой вектор начального состояния модели сигнала в пространстве состояний, заключается в оптимальной оценке вектора состояния для каждого сигнала с использованием оптимального алгоритма фильтрации Калмана для различных гипотез и выборе максимального значения, согласно полученному правилу. Данный алгоритм приема может использоваться для приема сигналов в случае несоблюдения условий узкопо-лосности при модуляции.
ЛИТЕРАТУРА
1. Советов В. М., Коекин В. А. Оптимальной алгоритм приема при использовании модели сигнала в пространстве состояний // Электромагнитные волны и электронные системы. 2009. Т. 14. № 11. С. 22 - 28.
2. Советов В. М., Коекин В. А. Оптимальный прием фазо-манипулированных сигналов на основе динамической модели // Электротехнические и информационные комплексы и системы. 2010. Т. 6. № 1. С. 20 - 25.
3. Candy, J. V., Model-based signal processing. A John Wiley & Sons, INC., Publication, 2006.
4. Сейдж Э., МелсДж. Теория оценивания и ее применение в связи и управлении: Пер. с англ. М.: Связь. 1976.
Поступила 02.09.2010 г.