Научная статья на тему 'Информационный анализ в совместной задаче фильтрации и обобщенной экстраполяции. Анализ'

Информационный анализ в совместной задаче фильтрации и обобщенной экстраполяции. Анализ Текст научной статьи по специальности «Математика»

CC BY
136
28
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
cигнал / стохастические системы / Экстраполяция / количество информации / signal / Stochastic system / Extrapolation / information amount

Аннотация научной статьи по математике, автор научной работы — Рожкова Светлана Владимировна, Рожкова Ольга Владимировна

Исследуются свойства количеств информации по Шеннону в совместной задаче фильтрации и обобщенной экстраполяции стохастических процессов по непрерывно-дискретным наблюдениям с памятью, касающиеся информационной эффективности наблюдений с памятью относительно наблюдений без памяти.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по математике , автор научной работы — Рожкова Светлана Владимировна, Рожкова Ольга Владимировна

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

The authors studied the properties of Shannon information amount in a joint task of filtering and generalized extrapolation of stochastic processes by continuous-discrete observations with a memory. They concern the information efficiency of the observations with a memory relative to the memoryless ones.

Текст научной работы на тему «Информационный анализ в совместной задаче фильтрации и обобщенной экстраполяции. Анализ»

СПИСОК ЛИТЕРАТУРЫ

1. Демин Н.С., Рожкова С.В. О структуре количества информации в совместной задаче фильтрации и интерполяции по наблюдениям с памятью. Общий случай // Известия Томского политехнического университета. - 2004. - Т. 307. - № 3. -С. 13-17.

2. Демин Н.С., Рожкова С.В. О структуре количества информации в совместной задаче фильтрации и интерполяции по наблюдениям с памятью. Условно-гауссовский случай // Известия Томского политехнического университета. - 2004. -Т 307. - № 4. - С. 6-10.

3. Дэвис М.Х.А. Линейное оценивание и стохастическое управление. - М.: Наука, 1984. - 205 с.

4. Ширяев А.Н. О некоторых понятиях и стохастических моделях финансовой математики // Теория вероятностей и ее применения. - 1994. - Т. 39. - № 1. - С. 5-22.

5. Демин Н.С., Рожкова С.В., Рожкова О.В. Обобщенная скользящая экстраполяция стохастических процессов по совокупности непрерывных и дискретных наблюдений с памятью // Известия РАН. Теория и системы управления. - 2000. - № 4. -С. 39-51.

6. Демин Н.С., Короткевич В.И. О количестве информации в задачах фильтрации компонент марковских процессов // Автоматика и телемеханика. - 1983. - № 7. - С. 8-96.

7. Липцер Р.Ш. Оптимальное кодирование и декодирование при передаче гауссовского марковского сигнала по каналу с бесшумной обратной связью // Проблемы передачи информации. - 1974. - Т. 10. - № 4. - С. 3-15.

8. Липцер Р.Ш., Ширяев А.Н. Статистика случайных процессов. - М.: Наука, 1974. - 696 с.

Поступила 15.06.2011 г.

УДК 519.2

ИНФОРМАЦИОННЫЙ АНАЛИЗ В СОВМЕСТНОЙ ЗАДАЧЕ ФИЛЬТРАЦИИ И ОБОБЩЕННОЙ ЭКСТРАПОЛЯЦИИ. АНАЛИЗ

С.В. Рожкова, О.В. Рожкова

Томский политехнический университет E-mail: [email protected]

Исследуются свойства количеств информации по Шеннону в совместной задаче фильтрации и обобщенной экстраполяции стохастических процессов по непрерывно-дискретным наблюдениям с памятью, касающиеся информационной эффективности наблюдений с памятью относительно наблюдений без памяти.

Ключевые слова:

Сигнал, стохастические системы, экстраполяция, количество информации.

Key words:

Signal, stochastic system, extrapolation, information amount.

Введение

В [1] для систем калмановского типа была решена задача нахождения количества информации по Шеннону в совместной задаче фильтрации и обобщенной экстраполяции стохастических процессов по непрерывно-дискретным наблюдениям с памятью для общего и условно-гауссовского случаев. В данной работе рассматривается информационная эффективность дискретного канала наблюдения относительно дискретного канала без памяти для стационарного гауссовского марковского процесса диффузионного типа (процесс Орнстейна-Уленбе-ка). Система обозначений та же, что ив [1].

Информационная эффективность наблюдений

с памятью относительно наблюдений без памяти

Представляет интерес вопрос об эффективности наблюдений с памятью в задаче экстраполяции, т. е. увеличивает или уменьшает количество информации наличие памяти. Данное исследование проведем для частного случая скалярных стационарных процессов х, ^, пЮ определяемых соотношениями

dxt = -axtdt + -\jQdwt, a > 0, p0(x) = N{x; л0, y0], dzt = H0xtdt + y[Rdvt, n(tm) = Goxtm + ^ + #£(4), (1)

когда непрерывные наблюдения без памяти, дискретные наблюдения с памятью единичной кратности (N=1, т1=т), процесс xt является стационарным гауссовским марковским процессом диффузионного типа с корреляционной функцией Ä(a)=[ß/2a]exp{-a|a|} и временем корреляции ak=1/a. Этот процесс, известный как процесс Орн-стейна-Уленбека, широко используется как в технических приложениях для моделирования реальных процессов с корреляционной функцией экспоненциального типа [2], так и в финансовой математике для моделирования процесса изменения процентной ставки [3].

В качестве меры информационной эффективности наблюдений с памятью n(tm) относительно наблюдений без памяти fj(tm), когда G1=0 в задаче экстраполяции в случае может быть взята величина (см. (3.6), (3.8) в [1])

л^л/Лад'-, пЮЬЛ/Лхл'-, п(01,

где Л1'-[%т,1о-,П('-)] и ЛІ'-[хт,І0-,П('-)] - приращения количества информации (3.30) в [1] при в моменты времени 'т, поступающие соответственно из наблюдений п('т) и П(-). Рассматриваем случай редких дискретных наблюдений, когда на интервалах 'є ('т, 'т+1) решения дифференциальных уравнений для элементов матрицы Г3(т, ',д) достигают стационарных значений у, у01('*), уп( '*), у11(7), уДТ), у11(Т), определяемых формулами (3.19) из [4], где '*='-т и T=s—' являются соответственно глубиной памяти и интервалом экстраполяции. Тогда согласно (4.36) с использованием (2.28), (2.33) из [5]

Ле = (1/2) 1п[ ^ 5,0/у1\5, гт)], (1)

Ро =

Л 0 = (1/2)1п[1/(1 -Ро)],

Л := (1/2) 1п[7(1 + Р„)],

2аУ у 2(011 + 2СоС1)ехр{-2аТ}

Рр

[У + у (Со + ^1)2] х

в(У + Г02)(1 - ехр{-2 аТ}) + +2аУ у ехр{-2аТ}

2аG01G11KY3 ехр{-2 аТ}

[У + у(02 + кО?)] х

в(У + у02)(1 - ехр{-2 аТ}) +

(4)

= уп(Т) -

/Ч5, (я ) =

[СоК(Т)+оу^ \т )]2 У + ОІУ + оЦуп(ґ *) + 20о01їт(ї *)’

(2)

(я) = уп(Г) - [оу0(Т)/(¥+О^у)]. (3)

Относительно глубины памяти имеются две крайние ситуации: случай малой глубины, когда ?*—>0, случай большой глубины, когда Г—<». Пусть Л0е=КшЛе при /*—0 и Л,/=КтЛе, при /*—<». Из (1-3) следует

_+2аУ у ехр{-2аТ}

где у=(1/5)(А-а), 8=И02/Я, Л=^а2+50, к=(А+а)/2А.

Исследование поведения Ле(Г) как функции глубины памяти Г на основе (1-4) с использованием (3.19) из [4] дает следующий результат Утверждение.

Пусть

С = С +иС- = {(С0,+ 2О0О1 < 0}.

1) Если (С0,^1)гО, то Ле( Г) является монотонно убывающей функцией глубины памяти от значения Л0е>0 до значения Л<0, обращаясь в ноль в точке Г=4*, для которой справедлива формула

2 = 1; 5 = 1; V = 1; в0 = 2; в, = 1; Т = 0.1

а1 = 2; а2 = 1; а3 = 0.2;

= 11п \0\(У+к01у )

е Яп\Оо\ф2+Ка^У+Ка&)±у)’ (5)

где знак «-», если ОО^О^О^, и знак «+», если &0&1=-|&0|.|&1|, и которая может быть определена как эффективная глубина памяти.

2) Если (О^О^ев, то Ле((*)<0 для всех (’>0.

Физическая интерпретация полученного результата заключается в следующем. В случае большой глубины памяти ('^ак, где ак=1/а есть время корреляции процесса х, что приводит к отсутствию корреляционных связей между хг, х(>, х. Поэтому при больших (* сигналы У(г)=О1хт не содержат взаимной информации о текущих х^ и о будущих значениях х,

процесса х1 и действует в канале с памятью как дополнительный шум, что приводит к уменьшению приращения количества информации по сравнению с каналом без памяти. Этим и объясняется Л®<0 при любых значениях коэффициентов передачи 00 и О1.

В случае малой глубины памяти, когда ('^ак, коэффициент корреляции между значениями х и х, близок к единице и поэтому сигналы 7(т,(т)=О0х +Ох воспринимаются как У((т)=(О0+О1)х^. Так как условия (60,61)гО означают |60+61|>|(61|, то интенсивность полезного сигнала У(г,(т) в канале с памятью оказывается выше интенсивности полезного сигнала Охт в канале без памяти, что и обеспечивает большую информативность У(г,(т) относительно О^т. Этим и объясняется свойство Л,®>0 в случае (О0,О1)г в и об-

ратное свойство при выполнении противоположного условия. Условие (О0, О1) г в является условием существования единственного корня уравнения

в2(У + кув20)ехр{-2А? *} +

+2УОов1 ехр{-А? *} - кув2^ = 0, (6)

к которому приводит условие Ле((*)=0 и решение которого имеет вид (5).

На рис. 1 приведено семейство по а кривых Ле((*) при 7=0,1, из которого видно, чем меньше а, т. е. больше ак=1/а, тем больше эффективная глубина памяти. Значения (е* на рис. 1 соответствуют

значениям, которые вычислены по формуле (5). Поскольку при малой глубине памяти поведение Ле зависит от соотношения между О0 и О1, то на рис. 2, 3 приведены соответственно семейства по О1 кривых Л0е(О0) и по О0 кривых Л0е(О1) при 7=0,1. На рис. 4 изображены для рассмотренного примера траектории 1‘[х;,10(,п0т] и 1‘[х;,10(,п0т] соответственно для случаев наблюдений с памятью и без памяти, когда (*<(,* и дискретные наблюдения начинаются с момента (1, а на рис. 5 соответствующие траектории, когда ОС*. Физическая интерпретация поведения кривых с учетом проведенного выше исследования очевидна.

1,2 т До Ч))

а=1; 0=1; д=Х У=1; Т =0,1

I—I—I—I—I—I—I—I—I—

-10 -8 -6 -4 -2

-3

Рис.З. Зависимости Ао (в^) от ^ при различных значениях в0

С ростом интервала экстраполяции, когда Т—к>, из (1-3) следует, что Ле—— 0. Этот эффект объясняется тем, что при ,>>(т исчезают корреляционные связи между хТ, , х. Поэтому, как в п((т),

так ив п((т) отсутствует полезная информация о будущих значениях х,, т. е. в этом смысле они становятся информационно эквивалентными.

Влияние непрерывных наблюдений на информативность дискретных наблюдений осуществляется через параметр 8=И02/Я, который пропорционален отношению сигнал/шум по интенсивности в непре-

л и [■]

рывном канале наблюдения. При ё—ю получаем, что ё—ю ІЦх^МО^Ои 7/т[хДо'т,п('т)Н0, что Л——0. Таким образом, при достижении абсолютно точного измерения в непрерывном канале дискретные наблюдения как с памятью, так и без памяти не привносят новой информации о значениях х, при любых Т. При ё=0, что соответствует случаю отсутствия непрерывных наблюдений, справедливы формулы (1-5), в которых Y=Q/2a, Х=а, к=1, т. е. в этом случае появляется явная зависимость '’ от времени корреляции а = 1/а процесса х1.

Рис. 4. Траектории ¡¡[-], ¡'¡[-] для случаев наблюдений с памятью и без памяти при

а = 2; 2 = 1; 5 = 1; V = 1; Т = 0.1

Рис. 5. Траектории ¡¡[-], ¡~'[-] для случаев наблюдений с памятью и без памяти при

О0 = 2; О = 2

Результаты работы могут быть использованы при исследовании таких базовых задач теории информации и теории передачи сообщений, как информационная эффективность каналов передачи и оптимальная передача (оптимальное кодирование и декодировние), когда в качестве математических моделей сообщений используются стохастических процессы диффузионного типа.

Выводы

Рассмотрен пример информационной эффективности наблюдений с памятью относительно наблюдений без памяти в задаче экстраполяции.

Показано, что наличие памяти в наблюдениях может как увеличивать, так и уменьшать количество информации.

Работа выполнена при поддержке ФЦП «Научные и научно-педагогические кадры инновационной России» на 2009-2013гг., проект № 02.740.11.5190.

СПИСОК ЛИТЕРАТУРЫ

1. Dyomin N.S., Rozhkova S.V., Safronova I.E. About structure of Shannon information amount for joint filtering and extrapolation problem by continuous-discrete memory observations // Informati-ca. - 2004. - V. 15. - № 2. - P. 171-202.

2. Дэвис М.Х.А. Линейное оценивание и стохастическое управление. - М.: Наука, 1984. - 205 с.

3. Ширяев А.Н. О некоторых понятиях и стохастических моделях финансовой математики // Теория вероятностей и ее применения. - 1994. - Т. 39. - № 1. - С. 5-22.

4. Демин Н.С., Сушко ТВ., Яковлева А.В. Обобщенная обратная экстраполяция стохастических процессов по совокупности непрерывных и дискретных наблюдений с памятью // Известия РАН. Теория и системы управления. - 1997. - № 4. - С. 48-59.

5. Демин Н.С., Рожкова С.В., Рожкова О.В. Обобщенная скользящая экстраполяция стохастических процессов по совокупности непрерывных и дискретных наблюдений с памятью // Известия РАН. Теория и системы управления. - 2000. - № 4. - С. 39-51.

Поступила 31.10.2011 г.

УДК 621-52+511.92

МНОГОМЕРНЫЙ ДИФФЕРЕНЦИАЛЬНЫЙ АНАЛОГ МЕТОДА Д.К. ФАДДЕЕВА

А.Г. Аветисян

Государственный инженерный университет Армении (Политехник)

E-mail: [email protected]

Предложен метод определения коффициентов-функций собственных многочленов и обратных матриц многопараметрических матриц на основе метода Д.К. Фаддеева и многомерных дифференциальных преобразований Г.Е. Пухова. Представлен модельный пример и процедура нахождения коэффициентов-функций характеристического многочлена и обратной матрицы.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Ключевые слова:

Многомерные дифференциальные преобразования, собственный многочлен, коэффициенты-функции, обратная матрица.

Key words:

Multiparametrical matrices, multidimensional differential transforms, coefficient-functions of characteristic polynomials.

Введение

Собственный многочлен автономной матрицы Л=(а) г,}= 1 ,т имеет вид

det[ А -АЕ] = (-1) яР(А) =

= (-1)я [Ая + рА-1 + РА ~2 + - + Ря ] = 0’

где А, г= 1 ,т - собственные числа матрицы, а р, г= 1 ,т - коэффициенты собственного многочлена, подлежащие определению.

Согласно методу Фаддеева [1], для решения этой задачи строится следующая цепочка последовательностей:

Шаг 1: Л1=Л, ,рЛ1=р1, В1=Л1-р1Е;

Шаг 2: Л2=ЛВ1, (1/2) ,рЛ2=р2, В2=Л2-р2Е;

Шаг т-1: Лт-1=ЛВт-2, (1/(т-1)) ,рЛт_1=Рт-1,

Вт-1=Лт-1-рт-1Е;

Шаг т: Лт=ЛВт-1, (1/т)),рЛт=Рт, Вт=Лт-РтЕ,

где ,р - след соответствующей матрицы, а Е - единичная матрица порядка т, причем Бт=[0], что является удобным контрольным условием правильности проведенных вычислений.

Кроме того, если ёеЫ^0, то обратная матрица имеет вид

А-1 =— Вя-1.

Ря

Математический аппарат

Для вычисления собственного многочлена Р(Я(х1,х2,...,х„)) матрицы А(х1,х2,...,х„) представим метод решения, предположив, что элементы аі](х1,х2,...,хп), і, }= 1 ,т матрицы Л(х1,х2,...,х„) обладают достаточной степенью гладкости по всем параметрам х1, х2,..., х„.

Для построения собственного многочлена неавтономной (однопараметрической) матрицы в [2, 3]

i Надоели баннеры? Вы всегда можете отключить рекламу.