Научная статья на тему 'Процедура Джеймса Стейна для условно-гауссовской регрессии'

Процедура Джеймса Стейна для условно-гауссовской регрессии Текст научной статьи по специальности «Математика»

CC BY
289
58
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
УСЛОВНО-ГАУССОВСКАЯ РЕГРЕССИЯ / УЛУЧШЕННОЕ ОЦЕНИВАНИЕ / ПРОЦЕДУРА ДЖЕЙМСА СТЕЙНА / НЕГАУССОВСКИЙ ПРОЦЕСС ОРНШТЕЙНА УЛЕНБЕКА / CONDITIONALLY GAUSSIAN REGRESSION MODEL / IMPROVED ESTIMATION / JAMES STEIN PROCEDURE / NON-GAUSSIAN ORNSTEIN UHLENBECK PROCESS

Аннотация научной статьи по математике, автор научной работы — Пчелинцев Евгений Анатольевич

В статье рассматривается задача оценивания р-мерного (p≥2) вектора среднего многомерного условно-гауссовского распределения при квадратической функции потерь. Задача такого типа возникает, например, при оценивании параметров непрерывной регрессионной модели с негауссовским процессом Орнштейна Уленбека. Предлагается модификация процедуры Джеймса Стейна вида θ*(Y) = (1-c/||Y||)Y, где Y наблюдение и с > 0 специальная константа. Для этой оценки найдена явная верхняя граница для квадратического риска и показано, что ее риск строго меньше риска обычной оценки максимального правдоподобия для размерности p≥2. Эта процедура применяется к проблеме параметрического оценивания непрерывной условно-гауссовской регрессии и к оцениванию вектора среднего многомерного нормального распределения, когда ковариационная матрица неизвестна и зависит от некоторых мешающих параметров.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Процедура Джеймса Стейна для условно-гауссовской регрессии»

2011

ВЕСТНИК ТОМСКОГО ГОСУДАРСТВЕННОГО УНИВЕРСИТЕТА Математика и механика

№ 4(16)

МАТЕМАТИКА

УДК 517.16; 519.2

Е.А. Пчелинцев

ПРОЦЕДУРА ДЖЕЙМСА - СТЕЙНА ДЛЯ УСЛОВНО-ГАУССОВСКОЙ РЕГРЕССИИ

В статье рассматривается задача оценивания р-мерного (р>2) вектора среднего многомерного условно-гауссовского распределения при квадратической функции потерь. Задача такого типа возникает, например, при оценивании параметров непрерывной регрессионной модели с негауссовским процессом Орнштейна - Уленбека. Предлагается модификация процедуры Джеймса - Стейна вида 0 (У) = (1-с/||У||)У, где У - наблюдение и с > 0 - специальная константа. Для этой оценки найдена явная верхняя граница для квадратического риска и показано, что ее риск строго меньше риска обычной оценки максимального правдоподобия для размерности р>2. Эта процедура применяется к проблеме параметрического оценивания непрерывной условно-гауссовской регрессии и к оцениванию вектора среднего многомерного нормального распределения, когда ковариационная матрица неизвестна и зависит от некоторых мешающих параметров.

Ключевые слова: условно-гауссовская регрессия, улучшенное оценивание, процедура Джеймса - Стейна, негауссовский процесс Орнштейна - Уленбека.

Введение

В 1961 г. Джеймс и Стейн, рассматривая задачу оценивания вектора среднего 0 р-мерного нормального распределения случайного вектора У с единичной ковариационной матрицей 1р, ввели оценку

= |1 - р-22'| у , ()

XJJS

которая дляр>3 превосходит оценку максимального правдоподобия

V = Г (2)

при квадратическом риске

Я(0,0) = Ее||е-0||2, (3)

т.е. для всех значений параметра 0

Я(0,0JS) < Я(0,0щ).

Этот неожиданный результат вызвал большой интерес математиков статистиков и стимулировал многих авторов к развитию теории улучшенного оценивания. Задача Джеймса - Стейна была изучена для более общих моделей, в том числе с неизвестной ковариационной матрицей [1, 2, 6, 9]. Значительные усилия были направлены на решение задачи улучшенного оценивания в негауссовских моделях.

В [3, 5] были предложены процедуры улучшенного оценивания для регрессии со сферически симметричными распределениями шумов. В [4] изучалась непараметрическая модель регрессии с зависимыми шумами.

Оценки Джеймса - Стейна и другие улучшенные оценки нашли применение в эконометрике и в задачах, связанных с обработкой сигналов.

В статье рассматривается задача оценивания среднего в модели регрессии, в которой шум является только условно-гауссовским. Предположим, что наблюдаемый р-мерный случайный вектор У удовлетворяет уравнению

где 0 - вектор постоянных параметров из некоторого компакта © с Ж.p , £ - условно-гауссовский случайный вектор с нулевым средним и условной ковариационной матрицей D(G), т.е. Law(SJG)=Np(0, D(G)), где G - некоторая фиксированная ст-алгебра.

Для данной модели исследование оценки Джеймса - Стейна провести не удается и вопрос о нахождении её риска остается открытым. Предлагается рассмотреть следующую модификацию оценки Джеймса - Стейна:

где с - положительная константа, определяемая ниже. Основное отличие оценки (5) от (1) в том, что вместо квадрата нормы ||У||2 используется норма в первой степени ||У||. Как показано ниже, оценка 0 позволяет решать задачу улучшенного оценивания регрессии с условно-гауссовскими шумами при некоторых дополнительных предположениях. В теореме 2.1 раздела 2 устанавливается, что оценка (5) превосходит по точности оценку максимального правдоподобия (2) равномерно по 0 для любого компакта © с Ж.р и всех размерностей р>2. Для сравнения заметим, что преимущество оценки Джеймса - Стейна для гауссовской регрессии проявляется только для р>3. В разделе 3 оценка (5) применяется для решения задачи улучшенного параметрического оценивания в непрерывной регрессионной модели с негауссовским шумом, являющимся смесью белого шума и импульсных возмущений, описываемых составным процессом Пуассона. В разделе 4 оценка (5) применяется для оценивания параметра в дискретной регрессионной модели с гауссовским шумом, зависящим от неизвестных мешающих параметров. В приложении приводятся некоторые технические результаты.

В данном разделе получена верхняя граница для риска оценки (5) при некоторых условиях на случайную ковариационную матрицу -О(^).

Предположим, что

(Сі) - минимальное собственное значение матрицы -О(^) отделено снизу от нуля, т.е. существует положительная постоянная X*, такая, что

Y = О + £,

(4)

(З)

2. Верхняя граница для риска оценки

хшт(°(3)) п.н.;

(С2) - математическое ожидание максимального собственного значения матрицы -О(^) ограничено сверху на некотором компакте © с Жр , т.е.

sup ЕеХmaxCD(G)) < а ,

0Е©

*

где а - некоторая положительная постоянная. Обозначим разность рисков оценок (5) и (2) как

Д(е) := R(е,е*) -я(е, еML).

Нам потребуется также следующая константа

d-2 i-1

d-2 ^ / ,■ + Л

X 2 2 (-1)p-j(K)p-1-jr( )-(-к)pI(к)

j=0 V 2 '

p ^p/2-li

2 p/2-1Г(р/2)d

I p-r2/2

к = d /va* , I (a) = f-----------------dr и d = sup{||е||: ее©}.

J СЧ -L v

' e

где ....................

0 a+r

Основной результат для условно-гауссовской регрессии содержит следующая теорема.

Теорема 2.1. Пусть шум £ в (4) имеет _р-мерное условно-гауссовское распределение Np(0, D(G)) и его ковариационная матрица D(G) удовлетворяет условиям

(С1), (С2) для некоторого компакта ©clp . Тогда оценка (5) с c = (p- 1)X*yp

доминирует оценку максимального правдоподобия (2) для всех p>2, т.е.

sup Д(е) <-[(p - 1)X*Yp ]2.

ее©

Доказательство. Сначала установим нижнюю границу для математического ожидания случайной величины ||Y||-1.

Лемма 2.2. В условиях теоремы 2.1

inf Ее т1; > y p.

ее© е Y lp

Доказательство леммы приводится в приложении.

Чтобы получить верхнюю границу для Д(0), нам потребуется модифицировать доказательство леммы Стейна [9] применительно к модели (4) со случайной ковариационной матрицей.

Рассмотрим риски оценок (2) и (5)

R^ml,е) = Ее ||еml -е2 = Ее (Е((V-е||2 I G)) = ЕеЮ(д);

R(е*,е)=R(ml,е)+Ее[£(g(()-1)2 YI2|G)]+2^Eе[E((g(()~Щ Y -е;)|G

j=i

где g(Y) = 1 - c /|\Y\\.

Обозначив f (Y) =(g (Y) -1) Yj и используя условную плотность распределения вектора Y относительно ст-алгебры G

1

pY (x | G) =---------------------------/2 , =exp

(2п)p -y/det D(G)

имеем

1} := Е(()(Yj■ -0}) \ д) = | f(x)(x] -0})PY(x\g)(іх, Л = 1,p .

к р

Делая замену переменной u = D~1/2(g)(x-0) и полагая (и) = f^112(д)и +0). находим

^ £<^/2(д) >л I /(и)ul ехР

(2п) 1=1 „ р

2

и

du, А = 1, р,

где <4>у обозначает (г, л)-й элемент матрицы А Эти величины можно переписать как

!} = £ £ Е Г< ^/2(д) >I < ^/2 (д) >и (и) I и=Y \ д 1, а = 1.

I=1 к=1 V ^к /

Таким образом, квадратический риск для оценки (5) представляется в виде

Я (0*, 0) = Я (0 мь, 0) + Е0(Я (X) -1)2

+2Ер

Р Р Р

£££< D1/2(g) > л < ^/2(д) >кі -^[( (и) - 1) ]| „

V л=1 I=1 к=1 к

где

После простых преобразований получаем

Я (0*, 0) = Я (0 мь, 0) + Е0^ ^),

Ш (х) = с 2 + 2с - 2ґЮ(д) • с-1-.

Н3 ІІХІ

Отсюда разность рисков Д(0) принимает вид

Д(0) = Е0^ (У).

Поскольку х Ах ^ Хтах (А) || х||2, приходим к неравенству Д(0) , С2 - 2СЕ0 ^)"V ^)) .

Следовательно,

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Д(0) , с2 - 2с£ ЕвЬ^Р±.

() & 0 П

Принимая во внимание условие (Сх) и лемму 2.2, имеем Д(0) ^ с2 - 2(р - 1)Х*урс =: ф(с„).

Минимизируя функцию ф(с) по с, приходим к желаемому результату

Д(0) ^-[( р - 1)^*т р ]2.

Теорема 2.1 доказана.

В отличие от (1), оценку (5) можно использовать для регрессионной модели с зависимыми гауссовскими шумами.

Следствие 2.3. Пусть в (4) шум £^Np(0, D) с положительно определенной неслучайной матрицей D>0 и Xmm(D)>\*>0. Тогда оценка (5) с c=(p-1)X*7p доминирует оценку максимального правдоподобия для всех p>2 и любого компакта ©clp , т.е.

sup Д(е) <-[(p - 1)X*Yp ]2.

ее©

Замечание. Заметим, что если D=ct2Ip, то

sup Д(е) <-[(p - 1)ст2y ]2.

ее©

Следствие 2.4. Если £^Np(0, Ip) и 0=0 в модели (4), то риск оценки (5) дается формулой

R(0, е ) = p -

(p - 1)Г(( p -1)/2)

Тщ p /2) ,

p

Применяя формулу Стирлинга для гамма-функции Г(х)=\р2жхх 1/2е х (1+о(1)). можно проверить, что гр^0,5 прир^ж. Поведение риска гр при малых значениях р представлено на рис. 1. Заметим, что в этом случае риск оценки Джеймса -Стейна является постоянным для всех р>3, т.е. Я(0,0^) = 2 , а риск оценки максимального правдоподобия 0М1 равен р и стремится к бесконечности при р^ж. Таким образом, оценка (5) для регрессии с единичной матрицей шумов превосходит по точности как оценку максимального правдоподобия, так и оценку Джеймса

- Стейна.

0,48

0,46

0,44 ■

0,42

“1--------1------1-------Г

6

~1---------1-----------------1--------1

18 p

10 14

Рис. 1. Риск оценки (5) при 0 =0

r

р

2

3. Улучшенное оценивание в негауссовской регрессионной модели

В данном разделе применим предложенную оценку (5) к негауссовской непрерывной регрессионной модели. Пусть наблюдаемый процесс (у) описывается уравнением

р

ёу, = £ 0ф(, )А + ё, 0 < , < п , (6)

1=1

где 0=(01,..., 0р)' - вектор неизвестных параметров из некоторого компакта © с Ж.р , п - натуральное число. Предположим, что (ф/)1<!<р — система линейно независимых 1-периодических ортонормальных функций из пространства £2[0,1]; шум (6,,),>0 — скалярный негауссовский процесс Орнштейна - Уленбека, т.е.

ё + ёи,, (7)

где а<0 - мешающий параметр, а (и) - процесс Леви вида

Щ = 0^1 + 92 ^ , ()

(^),>о - стандартное броуновское движение, (),>0 - составной пуассоновский процесс, т.е.

N

Ъ =£ , (9)

1 =1

(),>0 - однородный пуассоновский процесс с интенсивностью X > 0 , а (7;-)>1

- последовательность н.о.р. гауссовских случайных величин с параметрами (0, 1). Параметры а, д1, £2 и X - неизвестные постоянные.

Заметим, что регрессионная модель (6) - (9) позволяет рассматривать также модели с зависимыми шумами, включающими импульсные возмущения.

Задача - оценить неизвестный вектор параметров 0=(0Ь..., 0р)' в модели (6) по наблюдениям (у, )0<,<п .

Качество оценки 0 будем измерять квадратическим риском

Я(0,0) = Ее||0-0| |2.

Пусть д = ст{Ы,,, > 0} обозначает а-алгебру, порожденную пуассоновским процессом. Заметим, что модель (6) является условно-гауссовской относительно определенной а-алгебры д. Поэтому можно использовать оценку (5), чтобы получить улучшенную оценку параметра 0. С этой целью представим исходную регрессионную модель с непрерывным временем (6) в виде модели типа (4).

Классической оценкой для неизвестного вектора 0 в модели (6) по наблюдениям (у, )0<,<п является оценка по методу наименьших квадратов (МНК)

0=(01,...,0р)' с

01 = П ф 1(,) ёу,, 1 =1 р.

Отсюда, принимая во внимание (6), имеем

0 = 0 + 8пС(п), (10)

где еп = п 1/2 и фп) - случайный вектор с координатами

^1(п) = “р Iф 1(1 )ё^ •

'1п о

Заметим, что вектор ((п) имеет условно-гауссовское распределение с нулевым средним и случайной ковариационной матрицей ¥п (Я) = еоу(^(п), С(п)'| Я) с элементами (п) = Е(Сг- (п)С(п) | Я) •

Таким образом, исходная задача оценивания параметра 9 в (6) сводится к задаче оценивания неизвестного параметра 9 в условно-гауссовской регрессии (10).

Теорема 3.1. Пусть регрессионная модель определяется уравнениями (6) - (9), Оу > 0 . Тогда для всех п> 1 ир>2 оценка для 9

1 -

(p - l)grY p n\ 1011

доминирует для любого компакта 0с!p оценку МНК

A,0W (Р -1)^" Y p

sup A(0) <-

6e0

Для доказательства теоремы достаточно проверить условия (Сх), (С2) для случайной матрицы Vn(G) и применить теорему 2.1. Доказательство теоремы 3.1 приводится в приложении.

4. Улучшенное оценивание в авторегрессии

В данном разделе оценка (5) применяется для решения задачи улучшенного оценивания неизвестного среднего многомерного нормального распределения, когда ковариационная матрица неизвестна и зависит от некоторых мешающих параметров.

I. Пусть в модели (4) шум |=(|1,...,|p)' описывается гауссовским процессом авторегрессии

= ^k-1 + sk, к = 1Р , (П)

где |а| < 1, Е|0 = 0 и sj,...,sp - независимые стандартные гауссовские случайные

величины. Предположим, что параметр а в уравнении (11) неизвестен и принадлежит сегменту [-а0, а0], где a0 - известное число из интервала (0,1).

Нетрудно проверить, что ковариационная матрица шума £, имеет вид

D (а) =-

1 - а

1

а

-.p-1

а

1

,p - 2

3p-1 ^ ,p-2

1

(12)

уи \Л ... ± у

Далее рассмотрим задачу оценивания вектора параметров 9 в модели (4) с шумами (11).

1

Предложение 4.1. Пусть шум £, в модели (4) определяется уравнением (11) с а е [-а0, а0]. Тогда для всех р>1/(1-а0)2 оценка для 9, определяемая равенством

l-

l

(1 - a0)2

Л

Л0> /I

доминирует для любого компакта 0 с Жp оценку максимального правдоподобия, т.е.

supA(0) <-fp~ 1 \ Yp.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

0e0 ^ (1 - И0) /

Доказательство. Воспользуемся схемой доказательства теоремы 2.1. Имеем, что trD(a) = p /(1 - а2). Оценим сверху максимальное собственное значение матрицы D(a), учитывая, что

Xmax (D(а)) = sup z'D(a)z .

И=1

Из (12) следует, что

p p 1 f p- p- Л

z+i

ZD(a) z=X X <D(a) >ij zizj =—Ц- 1+2X X a'zizi-

i=1 j=1 1 - a V i=l l=1

( p-l p-і л

zi+l

1 11+2X a X zizi. l=l i=l

l - a2

Применяя неравенство Коши - Буняковского, получаем

1 f ^ Л 1

X max (D(a)) <--г I 1 + 2Х а0 \=----------

1 - а0 V 1=1 / (1 - а

Таким образом,

I1 - a0 )2

trD(a) -Xmax(D(a)) ^ Г - 1

(1 - а0)2

Отсюда, в силу теоремы 2.1 приходим к утверждению предложения 4.1.

II. Рассмотрим модель (4) с шумом, зависящим от нескольких неизвестных мешающих параметров. Пусть в модели (4) шум §=(§j,...,§p)' описывается стационарным многомерным гауссовским процессом авторегрессии q-го порядка AR(q)

Zk = a1^k-1 + a2^k-2 + ... + aq Zk-q +ek , k = 1 p , (13)

где sj,...,s - независимые стандартные гауссовские случайные величины. Неизвестный вектор a=(a1,...,aq)' принадлежит области устойчивости процесса

A = {a £ Ж.q :maxReXi (a) < 0},

1<i <q

где (Xi (a))1<i<q - собственные значения матрицы

a ... aq

A = A(a) = I q-l 0q Г

іq - единичная матрица порядка q.

Как можно проверить, ковариационная матрица вектора £, в данном случае имеет вид

ґ

D =

< F >п < AF >п ... < Ap 1F >п

< AF >п < F >п ... < Ap-2F >п

Л

(14)

ч< Ар 1 F >11 < Ар 2Е >11 ... < F >11

F - матрица, удовлетворяющая уравнению

F-AFA' = В,

В = ||81г- 81 ;|| - матрица размера д х д, 5у - символ Кронекера.

Обозначим р0 = 1 + Бир(2с* 11^||) /((1 - р) < F >11), где К - некоторый компакт

аеК

из области устойчивости А, с* > 0 и 0 <р<1 - постоянные.

Предложение 4.2. Пусть вектор шумов £, в (4) определяется (13). Тогда для всех р>р0 оценка для 9, определяемая формулой

2с*р|^П Ур

= |1 -|(p-1) < F >11 -^^j^jY,

доминирует для любого компакта 0 < т. е.

sup Д(Є) <-I (p-1) < F >11 -

Єє© V 1 -P

оценку максимального правдоподобия, 2c*p|L

Y p .

Доказательство. Используем схему доказательства теоремы 2.1. Имеем, что tr D = p < F >jj . Оценим сверху максимальное собственное значение матрицы D, воспользовавшись тем, что Xmax(D) = sup z'Dz. Учитывая (14), находим

z’Dz =

X X < D>ijzizj

i=1 j=1

< < F >n +2

И=1

■F >11 +2X X < Af >11 zzi+i

i=1 l=1

p-1 p~l

X<AlF >11X zizl+i

l=1 i=1

Применяя неравенство Коши - Буняковского и матричные неравенства \AB\ < ||A||||B|| и ||Al|| < c*pl, получаем

2c*p||F|

sup z’Rz << F >n +-

И=1 1 -p

Таким образом,

trD-^max(D) ^ (p-1) < F >11 -

2c*p| F||

1 -P

Принимая во внимание теорему 2.1, приходим к утверждению предложения 4.2.

5. Приложение

5.1. Доказательство леммы 2.2 Доказательство. Исходя из (4), имеем

J = E^-іЛ:^E^ 1 .. >Ee 1

|є+И" °d+ц|-

Перейдем к повторному условному математическому ожиданию. Так как при фиксированной а-алгебре G случайный вектор I распределен нормально с нулевым средним, то

J > Ee-----i_________ f exp{~Dі-1 Х/2} dx.

(2n)p'VdetD(g) > d +И

Обозначая и = Б(Я) 12 х и применяя оценку и'^(Я)и < Хтах(^(Я))||и|| , находим

г > 1 Е Г ехР{-1 \и\\2/2> йи

(2П)Р/2 9 ^й +Х1т/а2х(^(Я))|и|| .

Далее, переходя к сферическим координатам, имеем

-) ш ,.р--„-г2/2

3 > —---------------Е9Г------------------—-йг.

2р/2Г(р/2) 0 й + Сх(Б(Я))г

Отсюда, при использовании неравенства Йенсена, Коши - Буняковского и условия (С2) следует, что

ад р-1 -г 2/2

к сгр -е г ,

3 >—/71-------------I------------йг.

2р/2-1Г(р/2)й 0 к + г

Вычислим интеграл, стоящий в правой части неравенства. Разделив гр-1 на к+г , получим

р-1., - г2/2 р-2 Ц. / ■ .

|------------йг = £2 2 (-к)р-2-1 гГ1—1 + (-к)р-11(к),

0 к + г 1=0 ^ 2 '

е-г2/2

где функция I(а) = I--------------йг . Лемма 2.2 доказана.

0 а + г

5.2. Проверка условий (С1) и (С2) для матрицы V (Я) Элементы матрицы Уп (Я) могут быть переписаны как [8]

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

2 п 2 п 2

vij (n) = — I ф (t)ф j (t)dt + f I (i (t)єфj (t) + ф j (t)єф, (t)) dt + ~ X фі (Tl )ф j (Tl )X(Tl <n) n 0 2n 0 n l>1

+— X1 (фі (t)(( (t - T, т) + ф j (t)Lфii (t - T, T))X(Tl <t))t, (15)

” l >1 0

где Є/ (t) = aI0 ea(t-v) f (v) (1 + e2 av) dv,

Ь/ (х, г) = аеа (/(г) + аЮе-/(V + г) йу)

и (Т )г >1 - моменты скачков пуассоновского процесса (N ), >0, те.

Т = > 0:N = /}.

Лемма 5.1. Пусть (^)(>0 определяется уравнением (7) с а<0. Тогда минимальное собственное значение матрицы Уп (Я) с элементами, определенными (15), удовлетворяет следующему неравенству:

^ ^тт (V (Я)) > £-2-

п>1

Доказательство. Согласно (15), матрицу Уп (Я) можем представить в виде

V, (Я) = (- 1р + ^ + Вп (Я), где Гп - неслучайная матрица с элементами

2 n

fJ (П) = Т- j ( (t)8ф; (t) + ф J (t )Бф, (t)) dt )

2n 0

а Bn (G) - случайная матрица с элементами bj (n)=^ 2

11

n l>1

фг' (Tl )ф j (Tl )x(Tl<n) + j( (t)( (t ( ,( ) +ф j (t)Li (t Tl ,Tl ))X(T)<t)dt

_ 0

Отсюда находим

z' V (G)z = ft2z'z + z'Fnz + z'Bn (G)z > q1 I|z||2 для всех n> 1. Поэтому

Xmin (Vn (G)) > ft2.

Лемма 5.1 доказана.

Обозначим д* = a2 + X^2 и М=1+2 K2, где max |ф, (t)| < K, j = 1, p .

0a <n' J 1

Лемма 5.2. Пусть (Zt)t>0 определяется уравнением (7) с а<0. Тогда максимальное собственное значение матрицы Vn (G) с элементами, определенными (15), удовлетворяет для любого компакта 0 с Ж.p следующему неравенству:

sup sup E0Xmax (Vn (G)) < MpQ .

n>1 0£0

Доказательство. Имеем

E0Xmax(Vn (G)) < E0tr (Vn (G)) = £ E0Z2 (n) = £ T; (n) :

n^J j =1 n j=1

где tj (n) = J ф21 (t)dt + а|фj (t)J ea(t u)фj (u)(1 + e2au )udt. Поскольку (^j)i</<p

0 00

n

1-периодические ортонормальные функции, то Jф2 (t)dt = n и, ввиду ограничен-

ности этих функций, для любого а<0 находим

n t n t

a J ф j (t)J ea(t-u)ф j (u) (1 + e2au ) dudt < 2K2 \a\ J J ea(t“u)dudt < 2K2n .

0 0 0 0 Таким образом, для всех n>1 и 0е0

E0Xmax (Vn (G)) < Mpg* .

Лемма 5.2 доказана.

В леммах 5.1 и 5.2 показано, что матрица Vn (G) является положительно определенной и для любого компакта 0 с Ж.p удовлетворяет условиям (С1), (С2) с X* = ft2 и a* = Mpg*. В силу теоремы 2.1 получаем утверждение теоремы 3.1.

ЛИТЕРАТУРА

1. Berger J.O., Haff L.R. A class of minimax estimators of a normal mean vector for arbitrary quadratic loss and unknown covariance matrix // Statist. Decisions. 1983. No. 1. P. 105-129.

2. Efron B., Morris C. Families of minimax estimators of the mean of a multivariate normal distribution // Ann. Statist. 1976. No. 4. P. 11-21.

3. FourdrinierD. Statistique inferentielle // D. Fourdrinier. Dunod. 2002. P. 336.

4. Fourdrinier D., Pergamenshchikov S. Improved selection model method for the regression with dependent noise // Ann. Inst. Statist. Math. 2007. V. 59 (3). P. 435-464.

5. Fourdrinier D., Strawderman W.E., William E. A unified and generalized set of shrinkage bounds on minimax Stein estimates // J. Multivariate Anal. 2008. V. 99. P. 2221-2233.

6. Gleser L.J. Minimax estimators of a normal mean vector for arbitrary quadratic loss and unknown covariance matrix // Ann. Statist. 1986. V. 14. No. 1625-1633.

7. James W., Stein C. Estimation with quadratic loss // Proceedings of the Fourth Berkeley Symposium on Mathematics Statistics and Probability. V. 1. Berkeley: University of California Press, 1961. P. 361-380.

8. Konev V., Pergamenchtchikov S. Efficient robust nonparametric estimation in a semimartingale regression model. URL: http://hal.archives-ouvertes.fr/hal-00526915/fr/ (2010).

9. Stein C. Estimation of the mean of a multivariate normal distribution // Ann. Statist. 1981. V. 9(6). P. 1135-1151.

Статья поступила 19.07.2011 г.

Pchelintsev E.A. THE JAMES-STEIN PROCEDURE FOR A CONDITIONALLY GAUSSIAN REGRESSION. The paper considers the problem of estimating a p-dimensional (p > 2) mean vector of a multivariate conditionally normal distribution under quadratic loss. The problem of this type arises when estimating the parameters in a continuous time regression model with a non-Gaussian Ornstein-Uhlenbeck process. We propose a modification of the James-Stein procedure of the form 0 (Y) = (1 - c/||7||) Y, where Y is an observation and c > 0 is a special constant. This estimate allows one to derive an explicit upper bound for the quadratic risk and has a significantly smaller risk than the usual maximum likelihood estimator for the dimensions p>2. This procedure is applied to the problem of parametric estimation in a continuous time conditionally Gaussian regression model and to that of estimating the mean vector of a multivariate normal distribution when the covariance matrix is unknown and depends on some nuisance parameters.

Keywords: conditionally Gaussian regression model; improved estimation; James - Stein procedure; non-Gaussian Ornstein - Uhlenbeck process.

PCHELINZEV EvgeniiAnatol’evich (Tomsk State University,

Laboratoire de Mathematiques Raphael Salem, Universite de Rouen (France))

E-mail: [email protected]

i Надоели баннеры? Вы всегда можете отключить рекламу.