Научная статья на тему 'Случайные процессы: параметры, характеристики'

Случайные процессы: параметры, характеристики Текст научной статьи по специальности «Математика»

CC BY
1710
102
i Надоели баннеры? Вы всегда можете отключить рекламу.
Область наук

Аннотация научной статьи по математике, автор научной работы — Вешкурцев Юрий Михайлович

В данной работе излагается содержание главы книги автора "характеристическая функция в радиоприборостроении". Она посвящена построению теории с помощью известной функции, которая в 1902 году предложена А. М. Ляпуновым для доказательства теоремы о пределе вероятности и спустя 50 лет рекомендована для использования в прикладных исследованиях. В настоящее время можно говорить о виртуальных характериометрах, то есть о приборах для измерения значений характеристической функции случайных процессов. в радиотехнике такие приборы необходимы для исследования вероятностных характеристик сигналов и помех.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Chance processes: parameters, characteristics.

This work gives the content of book "Characteristical function in radio set building". It is devoted to the theory, which was offered in 1902 by A.M. Lyapunov. This theory was recommended for the usage in applied investigation. In Radio technics it is necessary to use the devices which investigate possible characteristics of signals and hindrances.

Текст научной работы на тему «Случайные процессы: параметры, характеристики»

версит'ета, где осуществляется подготовка радиоинженеров по нескольким специальностям, а именно: радиотех-ника-200700; проектирование и технология радиоэлектронной аппаратуры-200800; средства связи с подвижными объектами-201200.

За прошедшие годы со дня основания радиотехнического факультета (первый набор студентов был осуществлен в 1961 году) для предприятий г. Омска и ЗападноСибирского региона подготовлено более 5000 специалистов радиотехнического профиля. Многие из выпускников занимают ответственные руководящие должности На предприятиях (ведущие специалисты, начальники лабораторий, цехов, главные инженеры и их заместители).

Высокая оценка выпускников подтверждается многочисленными положительными отзывами, а также постоянными заказами на индивидуальную подготовку специалистов с оформлением трехсторонних договоров: вуз- студент- предприятие.

Качественной подготовке специалистов способствует высококвалифицированный преподавательский состав радиотехнического факультета, на 5-ти кафедрах которо-

го работают 8 докторов наук, профессоров.

Разработки ученых радиотехнического факультета нашли применение во многих отраслях народного хозяйства: космическая техника, диагностическая аппаратура, средства измерения и контроля.

В частности, на кафедре «Радиотехнические устройства и системы диагностики» (РТУ и СД) сложился творческий коллектив, занимающийся решением вопросов кварцевой стабилизации частоты. Результаты этих работ неоднократно докладывались на международных симпозиумах в России, США, Франции. Недавно с докладами по высокостабильным кварцевым генераторам выступали в Париже на международном симпозиуме сотрудники кафедры РТУ и СД Косых A.B., Лепетаев А.Н., Ионов Б.П.

Роль радио в научно-техническом прогрессе и в развитии культуры человеческого общества в целом не уменьшится и в новом столетии. Поэтому радиотехнический факультет ОмГТУ с уверенностью и оптимизмом смотрит в будущее и готов к расширению направлений специализации радиотехнического профиля.

а

Ю. М. ВЕШКУРЦЕВ

ОмГТУ

УДК 621.396.1

СЛУЧАЙНЫЕ ПРОЦЕССЫ: ПАРАМЕТРЫ, ХАРАКТЕРИСТИКИ

ВДАННОЙРАБОТЕ ИЗЛАГАЕТСЯ СОДЕРЖАНИЕ ГЛАВЫ КНИГИ АВТОРА "ХАРАКТЕРИСТИЧЕСКАЯ ФУНКЦИЯ В РАДИОПРИБОРОСТРОЕНИИ". ОНА ПОСВЯЩЕНА ПОСТРОЕНИЮ ТЕОРИИ С ПОМОЩЬЮ ИЗВЕСТНОЙ ФУНКЦИИ, КОТОРАЯ В 1902 ГОДУ ПРЕДЛОЖЕНА А.М. ЛЯПУНОВЫМ ДЛЯ ДОКАЗА ТЕЛЬСТВА ТЕОРЕМЫ О ПРЕДЕЛЕ ВЕРОЯТНОСТИ И СПУСТЯ 50 ЛЕТ РЕКОМЕНДОВА НА ДЛЯ ИСПОЛЬЗОВАНИЯ В ПРИКЛАДНЫХ ИССЛЕДОВАНИЯХ. В НАСТОЯЩЕЕ ВРЕМЯ МОЖНО ГОВОРИТЬ О ВИРТУАЛЬНЫХ ХАРАКТЕРИОМЕТРАХ, ТО ЕСТЬ О ПРИБОРАХДПЯ ИЗМЕРЕНИЯ ЗНАЧЕНИЙ ХАРАКТЕРИСТИЧЕСКОЙ ФУНКЦИИ СЛУЧАЙНЫХ ПРОЦЕССОВ. В РАДИОТЕХНИКЕ ТАКИЕ ПРИБОРЫ НЕОБХОДИМЫ ДЛЯ ИССЛЕДОВАНИЯ ВЕРОЯТНОСТНЫХ ХАРАКТЕРИСТИК СИГНАЛОВ И ПОМЕХ.

1.1 СЛУЧАЙНЫЕ ПРОЦЕССЫ И СИГНАЛЫ

В радиотехнике широко используются сигналы, которые делят на детерминированные и недетерминированные, т.е. случайные сигналы. По общепринятому определению сигнал есть физический процесс, несущий информацию о состоянии объекта наблюдения. При отсутствии знаний о начальном состоянии объекта любое его хаотическое изменение под одновременным действием разнообразных факторов (температуры, давления, влажности, радиации и т.д.) является для нас неожиданным (случайным). И как результат этого, физический процесс получается тоже случайным. В частном случае, когда состояние объекта определено однозначно и изменяется по известному закону, физический процесс является детерминированным. Термины «процесс» и «сигнал» будем употреблять равноправно, хотя, как это следует из определения, сигнал служит для регистрации и передачи информации. На данном этапе исследований речь об изучении информации у нас не идет.

Для аналитического описания физического процесса создают разные математические модели. Модель сигнала представим формулой

u{t) = [/(/) • cosФ(/) = U(0 • Reем>), d-D

распространенной в статистической радиотехнике и достаточно полно описывающей конечный результат физического процесса управления параметрами гармонического колебания в радиотехнических целях, системах связи, плазме ионосферы Земли, радиотехнических системах траек-торных измерений ракет и космических объектов. Сигнал (1.1) содержит U(t) - огибающую (амплитуду), F(t) - мгновенную фазу, производную которой co(t) = / dt называют мгновенной частотой. Эта модель удобна обобщенностью представления огибающей и фазы, которая желательна для фундаментальных исследований, т.к. позволяет учесть широкий круг начальных условий. Обозначения U(t), F(t), o)(t) следует понимать как случайные функции времени. Тогда сам сигнал (1.1) будет также случайным.

При расчете огибающей и мгновенной фазы сигнала широко используется в литературе [1] понятие так называ-

(1.2)

емого аналитического сигнала

ч?{1) = и{1)ет,) =и{1) + ;у(0.

где У\Х) -сопряженный сигнал по отношению к исходному колебанию Тогда огибающая (амплитуда), мгновенная фаза и частота сигнала равны [1].

/7(0 = 4u2{t) + v2{t)

со(0 = [КО • U(t) - u(t) • v(0]/ и2 (t) (1.3)

ч v(0 u(t)

Ф(0 = arctg-= arccos- -

V 7 6 u{t) U{t)

■ v(0 = arcsin

U(t)

где точка сверху обозначает производную функции по времени. Сопряженный сигнал в формулах (1.2), (1.3) связан с сигналом и(1) преобразованием Гильберта

dx

, Ч 1 Г ф) л / ч 1 Г у(х)

в котором интегралы понимаются в смысле главного значения Коши, т.е.

u(t) = - lim

к

ст->0

x-t

Г4-СТ X t

Полезные свойства преобразования Гильберта перечислены в методических указаниях [1], из которых следует, что приведение функции у(/) в соответствие функции

¡ь.

I

1

0

R §

2

1

а

I 1

I

3:

а 1

и(() с помощью преобразования Гильберта достигается почти точно. Особенно высокая точность получается при преобразовании узкополосных сигналов.

Представление случайного процесса в виде (1.1) не налагает каких-либо ограничений на а -ширину полосы энергетического спектра сигнала. Однако зачастую при классификации сигналов используют неравенства

а/^1 а/>1 (14)

, «1 <у >1

/СО ' /со

где со - несущая частота сигнала. С помощью их случайные процессы разделяют на узкополосные и широкополосные. Физически первое неравенство определяет концепцию спектра частот вокруг несущей частоты сигнала. Поэтому для узкополосного случайного процесса уточним модель (1.1) с помощью выражения

i~(t)= U(t)cos[œt + e(f)],

(1.5)

где е (1) - флуктуация фазы сигнала. В частном случае можно принять £/(?) = 110 , 8 (/) = ф0 = .

Тогда математическая модель детерминированного сигнала представляется зависимостью

u(t) = U0 cos[co/ + cp0],

(1.6)

в которой смысл параметров сигнала уточняют формулы (1.3) после следующей замены:

sintp

о '

I

и g

5

g

s §

s

0

s

1 э I

s

U(t)coss(t)cos(ùt -- U(i)sin e(r)sin соt -

(1.7)

= D(t)cos Ш - c(i)sin(cùi),

где D(t) = C/(f)cose(/), c(t)=c/(i)sin e(i)-

Случайные функции D(t), C(t) изменяются во времени более медленно, чем тригонометрические функции coswt и s/'nwf. Слагаемые выражения (1.7)в литературе называют квадратурными компонентами сигнала, у которых функции D(f),C(f) являются огибающими. Их можно следующим образом связать с параметрами сигнала:

U(t)=ylD2(t)+C2{t), с(0= d-Ч

= arctg(C(t)/D(t))

Используя сопряженный по Гильберту узкополосный сигнал, который имеет вид

v(t) = L7(/)sin[û)/ + е(/)] = (1-9)

= C/(/)sin £(/)cosûtf + L/(/)cos£(/)sinit)/,

получим

D(/) = £ (/)cos Ш + eût,

c(/) = ^(/)cos (Ùt - % (/)sin (ùt.

(1.10) (1.11)

Выражения (1.10), (1.11) определяют огибающие квадратурных компонент сигнала.

Попытки представить графически функции О((),С(0 наталкиваются на трудности, связанные с бедностью воображения человека, привыкшего к жизни в трехмерном пространстве. В выражениях (1-10), (111) присутствуют случайные процессы ), ^и), которые по той же причине не поддаются графическому представлению.

Существующую здесь величайшую трудность предложено преодолеть условным разбиением случайного процесса на множество отдельных реализаций, согласующихся с нашим воображением. На рис. 1.1 показаны примеры реализаций случайного процесса. Детерминированный сигнал имеет одну-единственную реализацию, которая изображена на рис.1.16. В окружающем нас мире присутствие детерминированного сигнала ограничено (они практически не встречаются), в то время как случайные процессы возникают всюду.

"(0=С/о СОвф^ у(*)=£/0 Ф(0=Фо> со(/)=со.

В детерминированном сигнале параметры и 0 , СО, ф0 постоянны, а переменным является только время. Поэтому мгновенные значения и(1) при известных параметрах сигнала можно рассчитывать в любой момент времени. Для случайного сигнала такое сделать невозможно. Например, достаточно предположить, что в выражении (1.6) начальный угол сдвига фаз ф0 есть случайная величина в пределах ±л, как сразу становится невозможным определить мгновенные значения сигнала в любой момент времени. Исходя из этого, сигнал (1.6) со случайным фазовым сдвигом ф0 называют квазидетермини-рованным случайным процессом.

Выражение (1 5) можно преобразовать к виду

а)

б)

Рис.1.1 Случайный (а) и детерминированный (б) сигналы: 1,2- реализации случайного процесса

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Для изучения и описания случайных процессов используют математический аппарат теории вероятностей. С помощью этой теории разработаны вероятностные характеристики случайных процессов, к которым относятся плотность вероятностей, функция распределения вероятностей, начальные и центральные моментные функции. Свойства случайного процесса во временной и частотной областях характеризуют корреляционная функция и энергетический спектр ситала. Все они составляют предмет исследования теории случайных процессов [2].

Характеристики случайных процессов в большинстве случаев зависят от времени и гораздо реже не зависят от него. Это связано с тем, что случайные процессы бывают стационарные и нестационарные, причем нестационарные процессы встречаются много чаще. В теории случайных процессов рассматривают гипотезы, по которым случайные процессы большой продолжительности во времени разбивают на корагкие отрезки, а внутри них принимают процессы стационарными. Тогда вероятностные характеристики таких процессов не зависят от времени. Помимо искусственно созданных стационарных случайных процессов они существуют в природе естественно. Например, квазидетерминированный случайный процесс заведомо является стационарным, потому что вероятностные

арактеристики не зависят от времени.

Независимость от времени вероятностных характеристик - это важное свойство стационарных случайных процессов. Другим не менее важным свойством стационарных случайных процессов является эргодичность. Вероятностные характеристики случайного процесса могут ■ыть получены в результате наблюдения мгновенных зна-оиий большого числа реализаций (см. рис.1.1). Для арготических случайных процессов их можно получить путем изучения одной реализации в течение определенного ин-ервала времени. Конечно, эргодические случайные про-(ессы очень полезны на практике, т.к. одну реализацию |юцесса легче получать и изучать (измерять), чем формировать в одно и тоже время бесконечное множество мгновенных значений (ансамбль) случайного процесса. В слассе стационарных процессов эргодические случайные процессы занимают небольшое место. Графическая интер-сетация сказанного приводит к картине, показанной на 1.2. \

случайных процессов

1.2. ВЕРОЯТНОСТНЫЕ ХАРАКТЕРИСТИКИ

СЛУЧАЙНЫХ ПРОЦЕССОВ

Случайные процессы имеют вероятностные характеристики. Как уже говорилось, вероятностные характеристики многочисленны. В соответствии с результатами прикладного анализа [3-5] проведем описание необходимых нам вероятностных характеристик.

1.2.1. ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ ВЕРОЯТНОСТИ

В теории вероятностей известно [6], что частость (вероятность) появления события определяется отношением

где п, - число интересующих нас событий, а N - общее число событий. Под событием можно понимать разное, например мгновенное значение случайного процесса величиной 1В или мгновенное значение любого другого параметра сигнала (огибающая, фаза, частота). Для упрощения описания и привлечения данных из литературы событием будем считать появление задуманного мгновенного значения случайного процесса ^(0.

Функция распределения вероятности случайного процесса обобщает сказанное выше, т.к определяет зависимость вероятности появления события от фиксированного уровня сигнала, который можно изменять сколь угодно долго, повышая всякий раз.на бесконечно'малую величину. Математически функцию распределения можно описать выражением

. <1-12>

где Р/-; - функция распределения вероятности; X -уровень случайного процесса; ОД - мгновенное значение случайного процесса в момент времени tí; Р() - вероятность появления случайного процесса в момент времени значением равным или меньше л: . Функция (1.12) зависит от двух переменных, т.е. от аргумента X и параметра { . Обычно параметр фиксируют, поэтому формула (1.12) описывает функцию одного переменного X - И как результат этого, Р/Х,и называют одномерной функцией распределения (для обозначения используют индекс 1). Эта функция является самой простой, т.к. показывает распределение вероятности существования мгновенных значений сигнала для фиксированного момента времени Она не .содержит сведений о трм, как статистически связаны между собой мгновенные значения случайного процесса, взятые в любые два момента времени и t}.

Рассуждая аналогично для двух моментов времени

можем определить отношение п2(х ,, X где

л/Х X - число мгновенных значений случайного процесса, находящихся в момент времени t1 ниже уровня X ,, а в момент времени <2 ниже уровня х 2 • При большом N отношение будет устойчивым! Для введенной ранее функции распределения вероятности можем записать

(*Р *2 > 'I Л ) = Р(£>{*1 ) * *1 > Уй Х2 )

(1.13)

В отличие от (1.12) функция (1.13) зависит от двух аргументов X ,,Х 2 и ДВУХ параметров ?(,/2. В этой связи ее называют двумерной функцией распределения вероятности (для обозначения используют индекс 2).

Можно и. дальше продолжить рассмотрение функции распределения вероятности, вводя всякий раз новый уровень XI и новый аргумент Г, , гДе / =1,2,...,п. В пределе получим п - мерную функцию распределения вероятности, которая имеет вид

= )< х, )< Х2 )< х„)

Эта функция содержит богатую информацию не только о распределении вероятности появления мгновенных значений случайного процесса, взятых в разные моменты времени I, но и о статической связи между собой этих мгновенных значений. Чем больше п, тем полнее наши сведения о случайном процессе. Задача определения п-мерной функции распределения вероятности чрезвычайно трудная, она требует большого времени и сил. Поэтому в литературе приводятся скудные данные о многомерных функциях распределения вероятности олучайного процесса. Например, в книге [3] имеется указание на известность п - мерной функции распределения только гауссового случайного процесса, т.е. процесса с нормальным законом распределения. Последний термин указывает.на то, что функцию распределения (равно как и плотность вероятности) зачастую в теории называют законом распределения.

С помощью п - мерной функции распределения можно найти (п -1) - мерную функцию распределения, если проинтегрировать ее по аргументу X п.

В результате получим

(^ч 'Х2 '•••'•Х"«-1 '^2 '•••'^-1 )= (1-15)

00

-00

Операцией интегрирования функции распределения исключается (теряется) часть сведений о случайном процессе, при этом новая характеристика (1.15) становится менее информативной. Следовательно, потерять информацию гораздо проще, чем ее собрать (накопить). Сделанное ранее замечание об'отсутствии в литературе п - мерных законов распределений подтверждает эту мысль.

Для стационарного процесса формулы (1.12)-(1.15) преобразуются к виду

Т7,, (х[, х2хп, т,2т,...,(и - 1)т)= (1.16)

— — — л — О-

Выражения (1.16) показывают, что одномерная фун-

! I

кция распределения вероятности не зависит от времени, а все другие функции распределения зависят только от т =^,.Такое правило вытекает из определения стационарного случайного процесса.

Свойства функции распределения известны [3]. Она всегда есть неубывающая функция, т.е. X )>Рг(X) при X 2> X, • Кроме того, существуют равенства

(1.17)

Первое равенство определяет вероятность невозможного события, а второе - вероятность достоверного события. Анализируя равенства (1.17), можно заключить, что значения функции распределения вероятности лежат в пределах от 0 до 1, они не имеют размерности. Вид функции распределения вероятности показан на рис. 1.3. График на рис. 1.3а принадлежит случайному процессу, подчиненному нормальному (гауссовому) закону распределения, а график 1 .Зв - процессу, подчиненному закону Релея. Аналитические выражения этих законов имеют вид .

1 хс Г (у-щ)

= ф

ал/2тс

Л

I ехР

х-т

(х) = 1 - ехр

.2 Л

V

2(5'

(1.18)

(1.19)

прих>0 и РДх)=0, х<0, где т,,ст2 -количественные параметры случайного процесса (математическое ожидание и дисперсия ), Р( ) -интеграл вероятностей.

I

0

1

¡<

5

8 §

§

0

э

1

§

1 ■Б;

0,5

3 -2 -1

1 2

а

Ъ

дх

(1.20)

где индекс 1 указывает на одномерность плотности вероятности. Для вычисления двумерной плотности вероятности справедлива следующая формула:

^2 ' Х2 ' Л' ^2 )

д2РЛх.,хг, г., О

с!*, г дх2

(1.21)

Рис 1.3. Функции распределения вероятности случайного процесса с параметрами т =0,5=1

Графикам на рис. 1.3 можно придать физический смысл. Если по оси абсцисс отложить фиксированные уровни (пороги ), например в вольтах, то по оси ординат получим вероятность, с которой мгновенные значения случайного процесса будут находиться ниже порога. На рис. 1 .За при х =0 вероятность равна 0,5. Физически это означает одинаковую частость появления как положительных, так и отрицательных мгновенных значений гауссового случайного процесса относительно нулевой линии (ось времени на рис. 1.1а).

Зависимость (1.18) содержит интеграл. По-видимому, это послужило основанием назвать функцию распределения вероятности интегральным законом распределения. Однако стандарт [7] рекомендует такое определение функции в дальнейшем не употреблять.

1.2.2 ПЛОТНОСТЬ ВЕРОЯТНОСТИ

Если функция распределения вероятности имеет частную производную по х I то ее называют плотностью-вероятности. В соответствии с определением она равна

которая базируется на определении второй частной производной от двумерной функции распределения вероятности. Процедуру нахождения частных производных можно продолжить вплоть до взятия п-й производной, она будет равна п-мерной плотности вероятности

(1.22)

_ д (х, , х2 , , ) дх]дх2...дхп

По аналогии с функцией распределения п-мерная плотность вероятности содержит исчерпывающую информацию о случайном процессе и характеризует его полностью. Чтобы получить (п-1)-мерную плотность вероятности, необходимо функцию (1.22) проинтегрировать по аргументу х „. В итоге получим1

00 -00

По сравнению с функцией (1.22) плотность вероятности (1.23) менее информативна, она полностью случайный процесс не характеризует.

Для стационарных случайных процессов зависимость вероятностной характеристики от момента отсчета времени можно опустить. Тогда формулы для плотности вероятности примут вид

1У2(х1,х2,т) = 1У2(х1,х2,12-11) =

= Ж2(ХПХ2^] + т,*2+т). (1.24)

IVп О,, х2 ,...*„, т,2т ,...,(и - 1)т) = = И/п(х1,х2,...,хп^п — tl,tn_l — —£,) —

= ЯгП(х,,х2,...,х„,(1 +т,/2 +т).

Выражения (1.24) показывают, что одномерная плотность вероятности не зависит от времени, а все другие функции зависят только от разности (п - 1)т = /п - /,. Такое правило вытекает из определения стационарного случайного процесса.

Из сравнения формул.(1.20)-(1.24) видно, что для стационарного случайного процесса аналитическйе выражения плотности вероятности упрощаются. Тем не менее п-мерные плотности вероятности случайного процесса описываются довольно сложными формулами, построить которые нелегко. В книге [3] приведена п-мерная плотность вероятности нормального' случайного процесса, она выглядит следующим образом

IVп (X,, х2 ,...*„, т,2т,..., (и - 1)т) =-= х

о" у/(2л)п В

х ехр

1

2а2£>7:

Е ""ОС*»:~т,)

1 *=1

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

(1.25)

где m,, ö2 - количественные параметры случайного процесса; О, Di(( - числовые функции параметров

т,2т,...,(« - 1)т , которые определяются значениями коэффициента корреляции.2

R{ l) = (к — т~) / при указанных (п-1) значениях т. Величина DÄ является алгебраическим дополнением в определителе D , который равен

D =

К

ru r

22

я*

r

211

r.

(1.26)

где

г1=и{1-2х),г1=и(1-т^г1=и(1)1

е, = £(/■-2т) г, =е(/>-т)е3 =г(() .

После замены переменных в функции (1.27) и простых математических преобразований получим

№6(гпг2,г3;£пЕ2,Е3;г-2т,г -т,*) =

= —^=-ехр{--^-к>иг2 + Д,г,2 +

8<767Г3 4Ъ 2сг£>

(1.28)

+ Ю23г2г} со5(в3 - г2)+ 2£>13г1г, соз(е3 -е,)]}

Формула (1.25) построена компактно и просто. Однако ее применение при большом п требует огромных затрат времени и приводит к громоздким математическим выражениям. Поэтому к настоящему времени в литературе имеются данные только о 4-мерной плотности вероятности. При решении прикладных задач нам потребовалось построить формулу 6-мерной плотности вероятности для га-уссового случайного процесса. Плотность вероятности для рех моментов времени имеет вид3

1

8aVVZ)

хр{-

2сrD

[р,, (х,2 + Jc5" + х] + х;)+ D22 (х; + л52)-

(1.27)

где | | | | I I

г, >0;г2 >0;г3 > 0; е, < я; е2 < 7с; е3 < к.

Из (1.28) тройным интегрированием по 8!, 8,,8Х найдем трехмерную плотность вероятности огибающеи случайного процесса, а тройным интегрированием по /*!, Г2, Т"ъ - трехмерную плотность вероятности фазы случайного процесса. Опуская громоздкие промежуточные преобразования интегралов, запишем

7" ^j{\-R2f(l + R2 -2Ä,2Xl + Ä3 - Л, - Я2) 1 2o2(l-R,y}-R, + R2 -л7) 2cr(l-Ä, + Ä, - Л")]

2Dr_(Xlx2 +x2x3)+2Di3xtx3 +2DAixAx5 +

^2D^x4x, +2DMxsxt] }

Выражение (1.27) получено для сигнала с симметричной спектральной плотностью относительно несущей час-готы. Для такого сигнала детерминант матрицы равен

а алгебраические дополнения составляют равенства

D14=D41=Dm=Z)42=Dm=D4J=0,

^,5=o51=D25=D52=D35=D5 3=0,

Dib=Dtl=D7&=Da=D№=Da=0,

/>,; = D2I = D:< = D,2 = DAi = D3J = Da = DM =

= -R,(l-Rj(l + R2 -2R,:) ,

=D„= DM = DM = -0 - R2 XR: - R,2 X» + - ■2R,2)'

^:=D55=(l-R2Xl-R22Xl + R2-2R,2j.

При записи величин D,Dik использованы следующие обозначения: аргументы функций Rt(v),RJz) для простоты опущены, а сами они есть нормированные корреляционные функции квадратурных составляющих случайного процесса (1.7).

Формулу (1.27) можно использовать, например, для определения плотности вероятности огибающей и фазы нормального случайного процесса в совпадающие моменты времени. В выражении (1.27) перейдем к полярным координатам. С этой целью сделаем замену

=r, coss,,jc2 = г2 cose2,x3 = гъ cose3.x4 = = r, sins,,JC5 = r2 sinЕ2,Х6 =r3 sins,

X/,

a:(l-Ä, + R2

{R; - Л, У г, О-(1 - Л, Xl - Ä, + Я, -Л,2)

ст;(1-Л, +Л, - Л,2)

(1.29)

v'l + e2

8к "X^Rjf+Rj

1

л/1 + е2 -X2

(l + e!Xl + e2+X2)

7t

— + я/rfe 2 5

1

+ -X2

71

— + a/c/g 2

Vi

л/Г

+ e" - ц"

1 + X2 + <r 71/.--, nrc/g

л/l + i/2

yj

(1.30)

VT

+ e"

l +

л/Г

2X

ф + е2-:

•In

l +Л,2 l + e2

где

e = Ä, sii (e2 - e,); c = Rt sii (г3 -e,); d = Rt sirve3 -£,);

\ = Л, cos(e2 -e,); X = Ä, cos(e3 - :,); ц = Л, cos(e3 - г,);

/ [..] - мо/: фицированная функция Бесселя ] Формуле (1,30) по] чена для случая, когда дополнени 0,э=0. Это равенстве наступает в силу выполнения др .ого равенства R?=R2 для кратных интервалов времени типа т,2т.

Если т->о , то R¡ ->0 и 'Rг . При это^ функции (1.29), (1.30), к; и следовало ожидать, равны произведению одноме;: ^х плотностей вероятности огибающей и фазы узкопол'.енэго нормального случайного процесса. Такое положе т вытекает из основных свойств плотности вероятности.

I 5

I

О

г

8

8

и &

£

§

1 I

Свойства плотности вероятности известны [3]. Она, как производная неубывающей функции (функция распределения вероятности), не может принимать отрицательных значений, т.е.

Ж,(х)>0. (1.31)

Кроме того, имеет место следующее равенство

которое использовано нами при построении формулы (1.18). В частном случае при х = оо получаем

со

\ХРХх)(1Х = 1.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

(1.33)

Математически это означает, что площадь, ограниченная кривой плотности вероятности, равна 1. Физический смысл равенства заключен в том, что мгновенные значения случайного процесса с вероятностью, равной 1, сосредоточены в пределах от -х до +оо. Поэтому вероятность того, что значения случайного процесса находятся внутри заданного интервала от х , до X 2 равна интегралу

(1.34)

Кривая плотности вероятности может иметь один или несколько максимумов. Значение х = X т. при котором плотность вероятности достигает максимума, называют модой. Точку на оси абсцисс, в которой площадь, ограниченная кривой плотности вероятности, делится пополам, называют медианой.

Вернемся к равенству (1.32). В соответствии с теоремой Лейбница-Ньютона можем записать

т(х)= 1Ш1

14 7 дг->0

Т7, (х + Дх)- Т7, (х)

Ах

(1.35)

Следовательно, плотность вероятности содержит процедуру дифференцирования функции распределения вероятности по аргументу X • По-видимому, по этой причине в литературе плотность вероятности называют дифференциальным законом распределения. Стандарт [7] рекомендует такое определение функции в дальнейшем не употреблять. Числитель дроби (1.35) есть безразмерная величина, т. к. значения функции распределения вероятности размерности не имеют. Знаменатель дроби -размерная величина. Его размерность определяетх. например, приращение порога равно 1 мВ. Тогда размерность значений плотности вероятности будет определять отношение 1/Х , к примеру, 1/мВ.

Вид плотности вероятности показан на рис. 1.4. График на рис. 1.4а принадлежит гауссовому случайному процессу, а график на рис. 1.4в - процессу с равномерным законом распределения. Аналитические выражения этих законов имеют вид

1

ехр

(х - т, )2

<зу[2п

Щ(х) = 1/(6 - а)

2а'

(1.36)

(1.37)

Р(х, <£(/)< х2)=Ф

- Щ

(1.38)

На рис. 1.4а она изменяется по кривой Гаусса, на рис.1.46 вероятность постоянна в пределах х,= -2 до

Х,=4.

0,5

т (х)

0,25

А

у \

-2

О . 2 а)

А ^ (*)

0,2..

-2-1 0 1 В)

Рис. 1.4. Плотность вероятности случайного процесса: т,^, о=1

Фиксированные пороги определим с помощью выражений х1 = х-(Ах/2), х2 = х + (Ах/ 2), где х-середина интервала наблюдения мгновенных значений случайного процесса. Пусть ДХ стремится к нулю. Тогда с помощью графиков на рис. 1.4 можно определить вероятность появления случайного процесса задуманного значения. Например, на рис.1.4а значение случайного процесса, равное 1В, появляется чаще всего, т. к. кривая Гаусса имеет здесь максимум. Значение X =1 является одновременно модой и медианой плотности вероятности (1.36).По сравнению с ним другие значения случайного процесса появляются реже. Вероятность же появления больших значений случайного процесса довольно мала.

Форма графика на рис. 1.4в представляет собой прямоугольник. Поэтому в литературе зависимость (1.3) иногда называют прямоугольным законом распределения случайного процесса.

1.2.3. НАЧАЛЬНЫЕ МОМЕНТНЫЕ ФУНКЦИИ

В частном случае, когда не требуется полная характеристика случайного процесса, можно использовать начальные моментные функции. По определению [2] начальная п - мерная моментная функция (/(+/2+...+/п)-го порядка равна статистическому среднему произведения

т1 ,/',.., ('|.*2*-.0 =

Графикам на рис.1.4 можно придать физический смысл. Если по оси абсцисс отложить фиксированные уровни (пороги), например, в вольтах, то по оси ординат получим вероятности попадания мгновенных значений случайного процесса в интервал между уровнями х, и X 2 Эта вероятность равна (1.34). Подставляя в (1.34) плотность вероятности (1.36), получим

I 2 л

(1<39)

00 X'

где т, {•} - знак математического ожидания и для краткости введены следующие обозначения: , , ... ^(¿П)=4П. Если принять, например, что для п=4 справедливы равенства /1=/2=/3=/,)=1, то получим 4-мерную начальную моментную функцию 4-го порядка

(1.40)

-1. -т.

Функцию (1.40) можно сделать проще, если всюду ■ потребить один и тот же момент времени. При этом полу-;йм одномерную начальную моментную функцию 4-го по-«дка, которая имеет вид

оо " (1-41)

ожиданий. Аналогичное выражение можно записать для произведения п независимых случайных процессов

(1.48)

стационарных случайных пр

ной оо

m4fe} = ¡Wfete.

•ми

для стационарных случайных процессов она становится равной оо

(1.42)

Выражение (1.42) можно обобщить на описание на-1альной моментной функции к - го порядка, при этом фун-,ция остается одномерной, и этот признак из названия фун-ции исчезает. В результате получим

(1.43)

В правой части формулы (1.43) стоит плотность вероятности (закон распределения) случайного процесса £(/). Поэтому в литературе функцию (1.43) сокращенно называют моментами распределения, причем момент распределения первого порядка равен математическому ожидало. Он рассчитывается по формулам

ГШ')

и=1 J /=| /=1

Расчет начальных моментов распределения связан с вычислением интегралов вида (143). Для случайного процесса с равномерным законом распределения (1.37) они равны т,=1, т2=4, т3=10, т4=35,35 при а = -2, Ь = 4. Нужно подчеркнуть, что моменты распределения вычислить удается далеко не всегда, т. к. не для любого закона распределения они существуют. Это связано с тем, что несобственный интеграл (1.43) для отдельных законов распределения, например для распределения Коши, не имеет конечного значения. Таким образом , в каждом конкретном случае необходимо проверить наличие моментов распределения .прежде чем рассчитывать на их использование. Известно правило [3,с.74], что «если существует момент к-го порядка, то отсюда следует, конечно, существование всех моментов порядка п<к. Если же не существует момент п-го порядка, то и не существуют любые моменты порядка к>п».

1.2.4. ЦЕНТРАЛЬНЫЕ МОМЕНТНЫЕ ФУНКЦИИ

Случайный процесс ф) можно преобразовать путем вычитания из него математического ожидания. В результате получим разность

(1.49)

jV^fetá

(1.44)

которую называют центрированным случайным процессом. Он характеризуется центральными моментными функциями. По определению [2] центральная п-мерная

моментная функция + / + ... + / )-го порядка равна статистическому среднему произведения

í Mihi2:Jtvt2,...,tn) = тдеумад1'*'...

о

Моменты распределения являются числовыми характеристиками случайного процесса, т.к. они равны некоторым постоянным числам, полученным по формуле (1.43). Моменты дают общее представление о случайном процессе аналогично тому, как, например, длина, ширина, высота, объем характеризуют геометрическую форму твердого тела взамен описания его мельчайших подробностей. Числа тД} можно трактовать как моменты инерции к - го порядка плоской фигуры, ограниченной осью абсцисс и кривой, изображающей плотность вероятности И^Д). В частности, математическое ожидание тДУ определяет абсциссу центра тяжести такой фигуры. Взамен обозначения п,{£} чаще используют запись вида - математическое ожидание случайного процесса !;(0-

Важным свойством моментных функций является то, что функции более низкого порядка несут больше сведений о случайном процессе, чем функции высокого порядка. В соответствии с известным положением [6] запишем свойства математического ожидания:

для детерминированного процесса !;(?)=ио матема-| ическое ожидание равно ио, т. е.

и и

50)

—со —со

х т^х ,.Х м^т^Ъ,..,

где принятые обозначения соответствуют введенным ранее в формуле (1.39).Если предположить,что для п = 4 справедливы равенства = /2 = /3 = г4 = 1, то получим 4-мерную центральную моментную функцию 4-го порядка

0 0 0 0

МШ1«Л>*3>0 = 1111 «„сдги-

оо —оо —00 —00

(1.51)

(1.45)

Отсюда следует, что математическое ожидание постоянной величины равно этой величине. При вычислении математического ожидания произведения случайного процесса ад и постоянной величины ио имеет место равенство

- Щ ¿Щ т1 ¿t3)l т1 X

х Wa( Ъ ^ ^ W2>W fj & &

Функцию (1,51) можно упростить, если всюду употребить один и тот же момент времени. При этом получим одномерную центральную моментную функцию 4-го порядка, которая имеет вид:

а«, „ ffAVjsMfi¿= ta- (угх.

т. е. постоянную величину'можно выносить за знак математического ожидания. Кроме того', известно равенство

(0} = 2>,Ш=1>Ц , (1-47)

Ы ) ;=1 /=1 /

по которому математическое ожидание суммы нескольких случайных процессов равно сумме их математических

1 5}

А для стационарных, случайных процессов она ста новится равной

х

(1.53)

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

S

I

1

0 g

э

2

1

2 I

0

1

в: 3

I

О £

е

5!

3

0 &

1 §

I

тс

Выражение (1.53) можно обобщить на описание центральной моментной функции (центральных моментов распределения), к-го порядка, при этом функция остается одномерной и этот признак из названия функции исчезает. В итоге получим

(1.54)

Центральные моменты распределения являются числовыми характеристиками случайного процесса, т.к. они равны некоторым постоянным числам, полученным по формуле (1.54). Центральные моменты дают общее представление о случайном процессе аналогично тому, которое характеризуют начальные моменты распределения. Однако между начальными и центральными моментами распределения имеется отличие. Начальные моменты распределения рассчитываются относительно оси ординат кривой плотности вероятности, а центральные являются моментами кривой плотности вероятности относительно оси, проходящей через центр тяжести этой кривой. Если математическое ожидание случайного процесса равно нулю, то начало декартовой системы координат совпадает с центром тяжести кривой плотности вероятности. В этом случае центральные моменты распределения совпадают с начальными. Очевидно, что центральный момент первого порядка всегда равен нулю.

Центральный момент распределения второго порядка называют дисперсией случайного процесса и в соответствии с (1.43) и (1.54) рассчитывают по следующей формуле:

М2{^}=М2| = (1.:

55)

где обозначение М2^ дополняет ранее введённое о2, причем между ними имеется простая связь М2^ = с2 - дисперсия случайного процесса Величину <7; = называют средним квадратическим отклонением случайного процесса ^(1) от его математического ожидания. Среднее квадратическое отклонение характеризует разброс (рассеяние) мгновенных значений случайного процесса относительно его среднего значения (математического

ожидания). Значит а^ - это есть мера рассеяния случайного процесса. Размерность ст ит,, совпадает с размерностью мгновенных значени^случатюго процесса, например, вольт для напряжения.

Дисперсия - это важная и широко распространенная числовая характеристика случайного процесса. В соответствии с известными положениями [6] запишем ее основные свойства. Для детерминированного процесса

= ио дисперсия К/уи^ = 0. При вычислении дисперсии

произведения случайного процесса ^(Х) и постоянной величины ио справедлива формула

м2{и^а)} = и20м2{^)} = и20м2^

(1.56)

они равны М2= 3, мз= О, М4= 16,33 г.ри а = - 2, Ь = 4. Равенство Мэ= 0 является обязательным для любого симметричного закона распределения. Правда, центральные моменты распределения можно определить проще, если воспользоваться начальными моментами, которые связаны с центральными моментами следующими зависимостями [3]

М = т2 - т*,

М = т3 - Зт2т1 + т3г (1.59)

М = т-4тж,+ 6т ж - Зт*,

4 4 3 1 2 11 1'

При этом нужно помнить правило о существовании моментов распределения к-го порядка, записанное в предыдущем разделе.

1.2.5. КОРРЕЛЯЦИОННАЯ ФУНКЦИЯ

Среди моментных функций случайного процесса особый интерес представляют 2-мерные функции 2-го порядка (¡,+ ¡2 = 2 при \ = 1, ¡2= 1). В соответствии с (1.50) запишем выражение 2-мерной центральной моментной функции 2-го порядка

Ми(^2) = к{1^2) = = Щ {- (/,)\ ||2 - тг,{12)\ /=

(1.60)

X X

- \ ¡к к.

Формула (1.60) представляет общий вид так называемой корреляционной функции случайного процесса ^(0,

которую будем обозначать буквой у. Аналогичное выражение можно записать для 2-мернои начальной моментной функции 2-го порядка. С учётом (1.39) она равна

т1, (/,, /2 ) = *(*„ 1г) = /и, (/, 02)} =

= I ¡4,42^2(^2

(1.61)

т.е. постоянную величину можно выносить за знак дисперсии, возводя её в квадрат. Кроме того, известно равенство

(1.57)

по которому дисперсия суммы (разности) независимых случайных процессов равна сумме их дисперсий. Аналогичное выражение можно записать для произведения независимых центрированных случайных процессов (1.49)

м2={ щщ=пм2{ (1.58)

Расчет центральных моментов распределения связан с вычислением интегралов вида (1.54). Для случайного процесса с равномерным законом распределения (1.37)

Причем стандарт [7] рекомендует функцию у называть ковариационной функцией случайного процесса. При использовании функций (1.60), (1.61) стандарт запрещает называть их автокорреляционной функцией, хотя такое название более всего известно в литературе.

Корреляционная функция равна математическому ожиданию от произведения мгновенных значений центрированного случайного процесса, взятых в разные моменты времени, а именно в моменты времени 1, и Ц. Поэтому с физической точки зрения она дает качественное представление о линейной зависимости этих мгновенных значений. Для стационарных случайных процессов вместо моментов времени и как известно [3], можно использовать интервал времени 1 = 1,- ^.Тогда для корреляционной и ковариационной функций можно записать

ка112) = к«1-д = к(т), (1.62)

С помощью (1.62) можно сделать обратный вывод. Если математическое ожидание случайного процесса не зависит от времени, а корреляционная функция зависит только от разности моментов времени I, и 12, то такой случайный процесс является стационарным в широком смысле. В общем случае стационарность в широком смысле не тождественна стационарности в узком смысле, определение которой было сделано ранее. Случайные процессы, стационарные в узком смысле, всегда будут стационарны в широком смысле, но не наоборот.

В том случае, когда стационарный случайный процесс является к тому же еще и эргодическим, операцию усреднения с помощью математического ожидания можно заменить усреднением во времени. Тогда корреляционная функция будет иметь вид:

ад = ( /И, ]6(/ + т)-»!,]>= (1.63)

со

- {£(/)£(/ + г)) - т2 = + т)Л - т,2,

-00

:де <...> - знак усреднения во времени. После замены переменной интегрирования получим

k(x)=]^tm-T)dt-ml

(1.64)

Формулы (1.63), (1.64) равнозначны, однако (1.64) имеет широкое практическое применение, т.к. с помощью

линии задержки случайный процесс ^(t-т) легко получается из процесса ^(t).

Поскольку корреляционная функция есть 2-мерный центральный момент 2-го порядка, то вполне очевидны следующие равенства

Птк( т) = £2 И

г->0

в то время, как: I im K(r) -т2 И

г-»0

limk( т) = 0, (1.65)

г-мс

I im К(г) — щ2, (1.66)

тогда 42 =К(0)-К(оо). (1.67)

Свойства корреляционной функции известны [3, 4]. Она является четной функцией, т.е.

/£(/) = /£(-/). (1.68)

Абсолютное значение корреляционной функции при любом I не может превышать ее значение при т = 0 для

процесса ^(1) или её значения при т = Т0 для процесса ^(1-Т0), т.е.

|*(г)|<£(0) = С72, |ад|<ад) = ог2г0,

(1.69)

где Т0- начальный сдвиг во времени случайного процесса любой инерционной радиотехнической цепью с постоянной времени Т0. Из (1.69) следует, что корреляционная функция является энергетической характеристикой случайного процесса, т.к. ее значение при т = 0 или т = т0 равно энергии сигнала. Распределение энергии среди спектральных составляющих сигнала характеризует энергетический спектр случайного процесса. Следовательно, существует связь между энергетическим спектром и корреляционной функцией случайного процесса (теорема Хинчина - Винера), которая имеет следующий вид:

X

G(«) = jk(T)e~Md т,

-ос

(1.70)

где б(со) - энергетический спектр случайного процесса. Формулы (1.70) описывают прямое и обратное преобразование Фурье. Поэтому корреляционная функция и энергетический спектр стационарного случайного процесса обладают всеми свойствами , характерными для пары преобразований Фурье. Например, чем шире спектр 3(и), тем "уже" корреляционная функция к(т), и наоборот. Из (1.70) при т = о в дополнение к (1.65), (1.67) получается ещё одна формула для расчёта дисперсии

o2=~)G{co)dco,

(1.71)

ВДа

rf-""4 / i / \ w

\ / о \ / 47 ^

2 I

Рис. 1.5. Графики корреляционных функций:

1-экспоненциальный: 2-гауссовый

С)

Графики корреляционных функций показаны на рис.1.5. В частности, на рис 1.5а представлены экспоненциальная и гауссовая корреляционные функции, на рис.1.5в - корреляционная функция "белого" шума на выходе узкополосного колебательного контура, на рис. 1.5с - корреляционная функция квазидетерминированного сигнала. Аналитические выражения корреляционных функций в порядке изображения их на рисунке имеют вид:

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

k(x) = а2 ехр (- а | т |), k(x) = с2 ехр (- а2!2), (1.72) k(x) = а2 ехр (- а | т |) cos (ox, k(x) = (U20 ) cos сох,

s

I §

1

0

3

2

1

a

I

0

I

С*ч

0

1

£

£ с-.

S §

§ о

s

0 à

1

ft:

S

Они в некотором смысле служат иллюстрацией многообразия корреляционных функций, но ни в коем случае его не исчерпывают. Более многочисленные примеры корреляционных функций имеются в [4].

Анализ графиков показывает, что их вид иллюстрирует основные свойства корреляционной функции. Правда, при т—>œ значения некоторых корреляционных функций приближаются к нулю не монотонно, а в форме затухающих колебаний около нуля. У квазидетерминиробан-ного сигнала при т->оо колебания функции корреляции около нуля не затухают. Следовательно, в полном объеме свойства корреляционной функции выполняются только для случайного процесса.

Для расчета количественного значения линейной зависимости мгновенных значений случайного процесса между собой используется нормированная корреляционная функция. Она равна

R(x) = k(x) / k(0),

R(x) = (K(x)-m f)/o*. (1.73)

Нормированная корреляционная функция обладает теми же свойствами, что и корреляционная функция. В частности, она является четной функцией, её максимальное значение имеет место при т = 0 (или т = Т0) и согласно (1.73) Р(0) = 1. При любом другом т модуль |Р(х)| < 1. Зависимость значений нормированной корреляционной функции от х для конкретных функций (1.72) может быть представлена такими же графиками, которые приведены на рис.1.5.

С помощью (1.73) можно рассчитать т = т0, при котором I Р(т0) I < 0,05. Величину т0 называют интервалом корреляции стационарного случайного процесса. При т > т0 условно принято считать мгновенные значения случайного процесса статистически независимыми.

Интервал корреляции и ширина энергетического спектра случайного процесса связаны между собой соотношением

<ХТ0=1. (1.74)

справедливым для семейства энергетических спектров прямоугольных видов. Каждую из величин в отдельности можно также рассчитать по формулам [3]

(1.75)

(1.76)

где ш0 -центральная частота энергетического спектра сигнала.

Корреляционные функции огибающих квадратурных компонент сигнала (1.7) равны [3]

kD(x) = kc (т) = k (т) COS (ОТ + k,v(x) Sifl (ОТ, (1.77)

где k, (т) - взаимная корреляционная функция случайных процессов Ç(t) и v(t). Для х = 0 получим:

kD(0)=kc(0) = k(0) = a2 (1.78)

Практическая ценность корреляционной функции огромная. Она является инструментом так называемой корреляционной теории, с помощью которой достаточно просто находить вероятностные характеристики нормальных случайных процессов, включая многомерную плотность вероятностей.

1.3 СПЕЦИАЛЬНЫЕ ФУНКЦИИ В ОПИСАНИИ

ВЕРОЯТНОСТНЫХ ХАРАКТЕРИСТИК

Формально любую функцию (или вероятностную характеристику) можно представить рядом:

fix) = § еда, (1.79)

в котором совокупность УД х ) составляет базис ортогональных функций, а С - координаты проекции функции /( X ) в базисе х ). Сходимость ряда необходимо устанавливать в каждом конкретном случае. Однако в некоторых задачах сходимость ряда не имеет значения. Например, при аппроксимации вероятностной характеристики случайного процесса по известным нескольким значениям коэффициентов С|Р которые дают хорошее приближение к функции /( х ), сходимостью ряда можно даже и не интересоваться. В выражении (1.79) коэффициенты опре-

деляются формулой

с, = )y{x)f{xy¥Xx)dxt

(1.80)

= G(0)/4k(0), а = k(0) / G((o0),

где у/ (х) - весовая функция, которая определяет базис

Ч'(х). Из (1.80) видно, что вероятностная характеристика случайного процесса и ортогональная функция влияют на значение коэффициентов ряда. Известные из литературы [4,9 - 11] базисы ортогональных функций представлены в табл.1. На текущий момент выявлено 32 базиса, из которых можно получить бесконечное множество других, отличающихся друг от друга интервалами ортогональности. Если такое положение учесть, то среди выявленных останется 26 так называемых фундаментальных базисов. В табл.1 они разбиты на классы. В таблицу не вошли разновидности базисов Чебышева 1-го и 2-го рода, Лежандра, Якоби и Лагерра, т.к. отличие их от одноименных базисов, указанных в таблице, состоит только в интервале ортогональности. В классе ортогональных функций многих переменных пятый столбец таблицы не заполнен. Функции этого класса в прикладных задачах применения пока не нашли. По-видимому, их целесообразно будет использовать при аппаратурном анализе многомерных вероятностных характеристик случайных процессов. При таком многообразии базисов ортогональных функций на практике всегда приходится проводить анализ базисов и отдавать предпочтение какому-то одному из них.

Варианты выбора базиса ортогональных функций могут быть разные. В работе [12] описачы методика принятия решения при нечеткой исходной информации, расчет и назначение численных значений частных критериев для выбора оптимального базиса ортогональных функций. В качестве частных критериев авторами работы выбраны следующие:

- погрешность приближения ряда (1.79) к функции/(X);

- сложность аналитической связи между коэффициентами (1.80) и вероятностными характеристиками случайного процесса ад;

- сложность аналитической связи базисных функций х) с функцией преобразования процесса ^(1) в измеряемую величину (при аппаратурном анализе случайных процессов);

- сложность технической реализации генератора базисных функций х) (при аппаратурном анализе случайных процессов);

Основной вывод работы заключается в том, что при аппаратурном анализе вероятностных характеристик конечной разности, фазы случайного процесса следует использовать базис тригонометрических функций и функций Чебышева 1-го рода. Именно эти два альтернативных базиса позволяют успешно решать задачу анализа вероятностных характеристик конечной разности фазы сигнала путем измерения коэффициентов (1.80). -

В заключение приведем еще одну специальную функцию, которая используется при описании вероятностных характеристик случайных процессов. В 1902 году ее предложил академик А.М.Ляпунов и назвал характеристической функцией. Она и плотность вероятности случайного процесса являются парой преобразований Фурье, т.е.

□о

ЩУт)= \w¿x)ejV°xdx,

-ас

W¿x) = ±-]®¿Vm)e-iV™<dVm,

(1.81)

где ©,( Ут)- характеристическая функция случайного процесса. Описание и применение этой функции в радиоприборостроении составляют главное содержание данной монографии.

1 Интегрирование можно выполнить многократно по всем аргументам до X включительно.

Класс ортогональных функций Базис Интервал ортогональности Предпочтительная область применения

Гармонических Тригонометрический 0 я Спектральный и корреляционный анализы

0 л

-71 ж

Экспоненциальный -л it

Классических Якоби -1 1 Аппроксимация плотностей вероятности случайных процессов

Обобщенный Гегенбауэра -1. 1

Чебышева I рода -1 1

Чебышева II рода -1 1

Лежандра -1 1

Обобщенный Лагерра 0 00

Эрмита -00 00

Дискретной переменной Чебышева 0 N-1 Дискретный спектральный анализ

Кравчука 0 N

Шарлье 0 оо

Мейкснера 0 СЮ

Гала 0 00

Двоично-ортогональных Уолша -1/2 1/2 Спектральный анализ и синтез сигналов

Хаара 0 1

Радемахера -1/2 1/2

Г Адамара -1/2 1/2

Виленкина - Крестенсона 0 1

Виленкина - Понтрягина 0 1

Многих переменных Аллеля 0 1

V - базис 0 1

1) - базис 0 1

Эрмита 0 оо

2 Смысл нормированной корреляционной функции случайного процесса (коэффициента корреляции) раскрыт в подразделе 1.2.5.

3 Три момента времени распределены между следующими тремя парами аргументов: , , .

4 Описание конечных разностей параметров случайного процесса приведено в литературе [13].

ЛИТЕРАТУРА

1. Вакман Д.Е., Вайнштейн Л.А. Амплитуда, фаза, частота - основные понятия теории колебаний //Успехи физических наук. - 1977. -т. 123, вып. 4. - С.657-682.

2. Гихман И.И., Скороход A.B. Введение в теорию случайных процессов. - М.: Наука; 1977. - 568 с.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

3.Левин Б.Р. Теоретические основы статистической Радиотехники. - М.:Сов. радио, 1966. - Кн. 1 -728 с.;1968. - Кн. 2.-503 с.

4. Тихонов В.И. Статистическая радиотехника. - М.: Сов. радио, 1966. - 678 с.

5. Бендат Дж., Пирсол А. Прикладной анализ случайных данных: Пер. с англ. под ред. И.Н. Коваленко,- М.: Мир, 1989. - 540 с.

6. Вентцель Е.С. Теория вероятностей. - М.: Наука, 1964. - 576 с.

7. ГОСТ 21878-76. Случайные процессы и динамичес-

кие системы. Термины и определения. - М.

8. Справочник по специальным функциям / Под ред. М. Абрамовича и И. Стиган. Пер. с англ. под ред. В.А. Дит-кина, Л.Н. Кармазиной. - М.: Наука, 1979. - 830 с.

9. Бейтмен Г., Эрдейн А. Высшие трансцендентные функции. Функции Бесселя, функции параболического цилиндра, ортогональные многочлены. М.: Наука, 1966. -296 с.

10. Сёге Г. Ортогональные многочлены. -М.: Физмат-гиз, 1962.-460 с.

11. Суетин П.К. Классические ортогональные многочлены.-М.: Наука, 1979-415 с.

12. Вешкурцев Ю.М., Вережников В.В. Выбор базиса ортогональных функций для статистического анализатора фазы сигнала // Изв. вузов СССР, сер. радиоэлектроника. -1989.-Т. 32.-№3.-С. 95.

13. Вешкурцев Ю.М. Автокогерентные устройства измерения случайных процессов. - Омск: ОмГТУ, 1995. -163 с.

ВЕШКУРЦЕВ Юрий Михайлович-доктортехнических наук, профессор, заведующий кафедрой «Радиотехнические устройства и системы диагностики»

20 апреля 1999 г.

i Надоели баннеры? Вы всегда можете отключить рекламу.