ISSN 0868-5886
НАУЧНОЕ ПРИБОРОСТРОЕНИЕ, 2009, том 19, № 2, c. 90-103
-МАТЕМАТИЧЕСКИЕ МОДЕЛИ =
УДК 681.51; 621.391; 519.21 © А. В. Меркушева, Г. Ф. Малыхина
МЕТОДЫ И АЛГОРИТМЫ РАЗДЕЛЕНИЯ СМЕСИ СИГНАЛОВ. I. ПРИМЕНЕНИЕ ДЕКОРРЕЛЯЦИИ И СТАТИСТИК ВТОРОГО
ПОРЯДКА
Анализируется задача разделения смеси сигналов (с восстановлением вида ее компонент) при отсутствии информации о пропорциях и типе смешивания. Доступная измерительная информация поступает в информационно-измерительную систему с ее сенсоров. Рассмотрены методы и структура алгоритмов, необходимых для разделения смеси сигналов. Алгоритмы основаны на декорреляции многомерного измерительного сигнала, разложении ковариационной матрицы по собственным значениям и на использовании нейронной сети.
Кл. сл.: сигналы, смесь, разделение, методы, алгоритмы, декорреляция, нейронная сеть
ВВЕДЕНИЕ
В области обработки многомерных сигналов значительную роль играет декорреляция компонент сигнала, которая может быть как внутрика-нальной ("временной") или межканальной ("пространственной"), так и полной, т. е. пространственно-временной. Способы декорреляции основаны на статистиках второго порядка (СВП) и применяются в методе подпространств для спектрального анализа и обработки массивов. Декорреляция часто применяется на стадии предварительной обработки и способствует улучшению свойства сходимости в адаптивной системе, уничтожению избыточности или снижению шума. Пространственная декорреляция (называемая также отбеливанием) считается необходимым (но не достаточным) условием для применения более сильных вероятностных критериев независимости сигналов. После отбеливания задачи разделения сигналов смеси или анализа главных компонент (АГК) [1], [2], [3] становятся легче и в значительно меньшей степени плохо обусловленными [4], т. к. после отбеливания разделение компонент смеси (РКС) оп-
ределяется уже ортогональной матрицей. Кроме того, как будет показано, пространственно-временная и временная декорреляции могут быть использованы для идентификации матрицы, смешивающей компоненты первичного многомерного сигнала, и, таким образом, для разделения сигналов смеси — первичных сигналов источника (СИ). Для этой цели служат адаптивные и устойчивые к шуму алгоритмы (УША) пространственного отбеливания, ортогонализации, пространственно-временной и задержанной во времени декорреля-ции без дополнительной информации о процессе смешивания компонент СИ. Дополнительно ниже будут рассмотрены УША для разделения нестационарных сигналов смеси.
ПРОСТРАНСТВЕННАЯ ДЕКОРРЕЛЯЦИЯ — ПРЕОБРАЗОВАНИЕ ОТБЕЛИВАНИЯ
Для ряда алгоритмов, которые используются с целью разделения сигналов смеси (РСС), регистрируемых на сенсорах информационно-измерительной системы (ИИС), требуется отбеливание.
x(k)
s(k)
H W(k)
y(k)
Рис. 1. Модель преобразования отбеливания сигнала сенсоров х(к), представляющего результат смешивания Н компонент первичного сигнала источника з(к)
Случайный вектор-сигнал у (со средним, равным нулю) считается "белым", если его ковариационная матрица Яуу = {у • ут} = \п , т. е. Е{уу} = 5 у .1)
При отбеливании над вектором-сигналом х(к) (на сенсорах), который является результатом процедуры смешивания Н первичного га-вектора-сигнала 8(к) (Н и 8 — неизвестного вида), осуществляется предварительная обработка в форме преобразования (рис. 1): у (к) = W• х(к), где х(к) = Н- 8(к).
Таким образом, у (к)— отбеленный вектор, W — отбеливающая (п х т) матрица, причем если т > п (и известно п), то W одновременно снижает размерность вектора данных с т до п.
Матрица W выбирается так, чтобы ковариационная матрица Е{у • ут} стала единичной матрицей 1п, и, следовательно, компоненты отбеленных векторов у (к) взаимно не коррелированны и имеют единичную дисперсию
Я уу = Е{у • ут} = Е^- X • хт • Wт} =
= W• Я хх • Wт = I.
Ковариационная матрица (КМ) сигналов сенсоров х(к) является симметричной и положительно определенной и может быть представлена своим разложением
Я = У^ Л^ Ут = У^ Л1/2 • Л1/2 • Ут
1ухх Ч "з *х Ч "з "х *х'
(1)
w = Л Г • VI = Диаг.|
W = и Лх1/2 • Ухт,
1 1
1
• Ухт, (2)
(3)
1)
где Ух — ортогональная матрица и Лх = = Диаг.{2,22,...,2} — диагональная матрица с положительными собственными значениями
2 >2 >,...,2 > о.
Матрица декорреляции W (называемая отбеливающей матрицей (ОМ), или преобразованием Махаланобиса [5]) выражается соотношением (2) или (3):
В случае, если х(к) = у(к) и у(к) — окрашенный гауссов шум с Я= Е{у • Vт} Фо^ • 1п, то отбеливающее преобразование превращает его в сигнал белого шума (сигнал с одинаково распределенными и (статистически) независимыми отсчетами (ОРНО)).
Для численной оценки ОМ матрицы W целесообразно использование адаптивного алгоритма, для которого требуется критерий оптимизации. Система декорреляции у (к) = W• х(к) использует выход системы смешивания х(к) = Н 8(к) и обеспечивает диагональную форму КМ: Я уу =
= Е{уут} = Л, где Л = Диаг.Ц,2,...Л} (в частности, Л = 1п).
Выходные сигналы у будут некоррелированными, если Е{уу } = 0 при / Ф у (V/, у) и
г/г = Е{у2} = 2 > 0, (V/), поэтому высокая степень декоррелированности соответствует минимуму
п п 2
критерия J2(W) = (1/2)^ 1 \г\ при ограниче-
/=1 /=1; у Ф/
нии гй Ф 0 (например, гн = 1 для V/).
Адаптивный алгоритм получения ОМ W при условии равных дисперсий
Критерий для этого случая имеет вид3)
Jг(W) = (1/4)£ I (Е{ УгУу}-2Д, )2 =
/=1 у
4иуут) - л 2.
Для получения адаптивного алгоритма используется преобразование (4):
Я уу = Е{уут} = Е^хх^т} =
= е^ нт5 (wн)т} = оя 88 ат = аат
(4)
где и — произвольная ортогональная матрица (т. е. и• ит = 1п).2)
где О = W• Н — объединенная матрица преобразования от 8 к у, и можно принять, что Я88 = Е{8 • 8т} = 1п .
Критерий оптимизации (КО) приобретает фор-
j2(W) = -4|сот - л||2 = 1Г {(шт - Л)(шт - Л)}.
Минимум КО реализуется методом градиентного
му
Е — символ математического ожидания; 1п — еди-
ничная матрица того же размера п, как и вектор у; 5 —
у
символ Кронекера (5 = 1 только при / = у, иначе он ра-
V
вен нулю). Далее размерность п вектора-сигнала будет для краткости указываться в форме "п-вектор-сигнал". 2) Отбеливающее свойство матрицы W, определенной в (2) и (3), может быть проверено преобразованиями:
я уу = Е{уут } = Л-1/2 • Ухт • Ух • Лх • Ухт • Л-1/2 = 1п
11 Я уу = и Л-1/2 • Ухт • Ух • Лх • Ухт •Ух • Л-1/2 • ит = V 3) Это обычная квадратичная норма, в которой для матрицы проводится суммирование квадратов модулей матричных элементов. Такую норму называют нормой Фробениуса.
спуска, который определяет процедуру (5) получения элементов матрицы О. С учетом того, что
Я = Обт, (5) преобразуется в (6):
dg, = ^J2(W) jÔJ2(W) dj
dt dg
dg
dt
L = E 2
2
j k=1 P_ drkpj
dg ;
(5)
j
к=1
dg
k=1 p =1
kp
dgj
2Agj _ ' I rikgkj I rpigp
P=1
k =1
(6)
dt
= E
2^gj _I r
k=1
аН/^«0), матричная форма приобретает вид
а"
—— Н = ¿и(Л - Яуу) • "Н и, следовательно,
а"
—— = ^(Л - Яуу) •" . Это выражение соответствует алгоритму в дискретном времени:
"(I+1) = "(г)+п (Л - яуу) • "{г). (8)
При равных дисперсиях Л = I, и (8) переходит в (8):
W(i +1) = W(i )+п (I _ R?) • W(i ).
(8*)
С учетом симметрии КМ R , т. е. r = r , (6) при-
ij ji
обретает более простую форму
dgj
КМ Ryy может оцениваться с помощью выражения
(i, j = 1,2,..., ri). (7)
1 n_1 T
R£) = y • yT>=NI y(l )(k ) [y(l )(k ) ]T
N k=0
(9)
В матричном виде (7) соответствует выраже-
ав т
нию -= м(Л - ) • б = ^(Л - вв) • О, а при-
дЛ
нимая во внимание, что в = Н, и считая, что Н очень медленно изменяется со временем (т. е.
где y(l)(k) = W(l) • x(k).
Альтернативно, можно оценивать матрицу декорреляции (или ОМ) в реальном времени (РВ), используя подход на основе скользящего среднего [6] и следующие преобразования:
W(k +1) = W(k) + n(k) (л - Rk ) W(k) =
= W(k)+n(k) (л - W(k) wt (k)) W(k), где 0 <n(k) < 0.5;
R? = (1 -^RT + По y (k )y T(k),
где n0 e [0,1] — скорость обучения.
(10)
Для обучения в РВ можно быстро (хотя и более грубо — без операции математического ожидания) оценить КМ по соотношению Я.® = у (к)у т(к).
Тогда алгоритм обучения (вместо (8)) будет иметь более простой вид (11) (см. рис. 2):
А W(k) = W(k +1) - W(k) =
= П(к) (Л - у (к )у т(к) )• ^(к). (11)
При Л = I (11) упрощается до (11*):
А W(k) = W(к +1) - W(k) =
= П(к) (I- у(к )у т(к) )(к).
(11*)
Разделение компонент смеси (РКС) при декорреляции измерительных сигналов и пространственная декорреляция
Все правила отбеливания могут использоваться для алгоритмов РКС на основе нейронной сети. Алгоритм, который итеративно использует правило (11) при условии Л = I, достигает равновесия, когда КМ выходного сигнала Яуу становится равной
я уу = Е{у • ут} = Е^ хх ^т} =
= WE{xxт^т = WRXX Wт = I. (12)
Поэтому, принимая симметричность матрицы W, можно получить точку равновесия W,:
W* = R-1/2 = V Л-1/2 VT
" * xx * x 1 * x '
(13)
предположении, что Я= In, выполняется условие Я хх = Н2. Следовательно, W* = Н-1 = II =
= У Л-1/2Ут.
х х х
Удаление смещения, присущего зашумленным данным
Если измерительные данные сигналов на сенсорах зашумлены, т. е. х(к) = х(к) + v(k) и при этом х(к) = Н8(к) и у(к) = W(k)х(к) являются оценками (векторных) сигналов на сенсорах и на выходе ОМ без компоненты шума, то аддитивный шум v(k) в составе х(к) вносит смещение в оценки декоррелирующей матрицы W. КМ выходных векторов определяется выражением
Яуу = Е{у • ут} = WRlIJIWT + WRvv wт, (14)
где Яй = Е{х(к) • хт(к)}; Я„ = E{v(k) • Vт(к)}.
Принимая, что КМ шума можно оценить (т. е. Я„„ =0"2 • I), модифицированный адаптивный алгоритм (11*), дающий удаление смещения, имеет вид:
АW(k) = п(к)[!-Я? + W(k)Я„ WT(k)]W(k), (15)
где Ryy = (1 -^RT + П У (k)y T(k).
(k-1)_
yy
где Ух — ортогональная матрица (т. е. WWT = \п); Лх — диагональная матрица, полученная разложением КМ (Яхх) по собственным значениям: Я = У • Л • Ут .
хх х х х
Это значит, что сигналы выхода у{ (к) будут взаимно ортогональными и с единичной дисперсией. В общем случае "пространственная" декор-реляция недостаточна для разделения сигналов даже при линейной их смеси. Однако если смешивающая матрица Н симметрична, то алгоритм декорреляции с симметричной ОМ W непосредственно выполняет РСС, поскольку при простом
Для Rvv =^2I алгоритм (11*), работающий в
РВ со стохастическим градиентом, определяется выражением
A W(k) =
= n(k) (I- У (k)y T(k) + ^2W(k)WT(k) )W(k). (16)
Устойчивый к шумам алгоритм отбеливания с обучающими выборками (batch algorithm)
Для данных с шумами, кроме адаптивного алгоритма без смещения, связанного с наличием шума, может быть применен алгоритм отбеливания с обучающей выборкой. Такой подход иногда называют методом, основанным на подпространствах. Для наиболее простого случая, когда КМ шума можно моделировать в виде Rvv = ст2 I, а
дисперсия шума мала (т. е. отношение сигнал/шум относительно велико — превосходит некоторый порог), использование этого метода позволяет сравнительно просто оценить дисперсию шума и число компонент источника сигналов. Устойчивый к шумам алгоритм отбеливания (декорреляции) включает следующие этапы.
1) Вычисление КМ по измерительным данным (по так называемой "выборочной" КМ):
яхх = НЯНт + *11т = ННт + *11т. Эта оценка
выполняется асимптотически (при достаточно большой выборке) и в предположениях независимости сигналов — компонент смеси, единичной их дисперсии и отсутствия корреляции с белым шумом.
2) Вычисление разложения КМ по собственным значениям:
R = V Л VT =
*лг лг 4 V
x x x
= WS V ]
Л S 0 0 Л N
[Vs ,Vn ]t =
ражение W = ДИ
A
0 2
A +â
An
Диаг.
-<J„
VT
= V Л VT + V Л VT где V e Rmxn
S S S N N N ' ^ VStrV '
т. е. VS — матрица размерности (m x n), содержащая собственные векторы, связанные с n главными собственными значениями в матрице VS = Диаг.{А, A, An} с убывающими величи-
4)
нами .
3) Оценка â2 путем вычисления средней величины (m - n) младших собственных значений и определение ранга матрицы H. Это может быть выполнено поиском большого зазора в распределении собственных величин или применением информационного критерия Акаике (Akaike) [8].
4) Определение ОМ5) :
W = Л-1/2VsT = [ЛS -â2I]-1/2VsT =
4) Наиболее часто в задачах, связанных с РСС, как и здесь, предполагается, что число сенсоров т, регистрирующих смесь п сигналов, больше, чем количество компонент (сигналов) в составе разделяемой смеси, т. е. т > п [7].
5) Эту операцию можно назвать квазиотбеливанием, по-
скольку она выполняется не на зашумленных сигналах
сенсоров, а на оцененных данных, свободных от шума. Для зашумленных данных (х(к) = Ш(к)+л»(к)) описанное преобразование отбеливания (у(к) = "х(к) = "Ш(к)+ + "\(к)) может усиливать шум, а не подавлять его, особенно при т = п или когда смешивающая матрица плохо обусловлена (т. е. некоторые ее собственные значения очень малы). В этом случае увеличение шума может происходить равномерно и зависимо от распределения собственных значений ОМ. Чтобы преодолеть такую проблему, в 4) для ОМ следует использовать вы-
и отбеленный вектор-сигнал сенсоров — у = х .
МЕТОД РСС, ОСНОВАННЫЙ НА СВП И ВРЕМЕННОЙ СТРУКТУРЕ СИГНАЛОВ
Решение задач разделения сигналов смеси состоит в идентификации смешивающей матрицы (ИСМ), т. е. матрицы Н или ее псевдообратной6). Метод ИСМ основан на совместном использовании статистик второго порядка (корреляционных матриц сигналов с различными временными задержками) и временной структуры сигналов источника (СИ). Этапы реализации метода включают процедуры, обеспечивающие разложение по собственным значениям (РСЗ), обобщенное разложение по собственным значениям (ОРСЗ) и процедуры, определяющие одновременную диагонализацию (ОД). Сигналы источника (СИ) (п-вектор в(к) — компоненты смеси) могут иметь произвольное распределение, но не исчезающие временные корреляции. Таким образом, анализируется модель смешивания, в которой т-мерный вектор — сигнал сенсоров х(к) = №(к) + у(к) формируется неизвестной (т х п) -матрицей Н, причем т > п, а у(к) — аддитивный вектор шума, независимый от в(к).
Таким образом, задача ИСМ или РСС осуществляет оценку смешивающей матрицы Н или псевдообратной (разделяющей смесь) матрицы " = Н + , обеспечивающей получение первичных СИ 8(к), исходя только из конечного числа данных наблюдения {х(к)}, к = 1,..., N. При этом все алгоритмы РСС, не использующие априорной информации, дают результат с элементом неопределенности относительно масштаба и порядка компонент восстановленного сигнала 8(к). Так, оценка Н смешивающей и " разделяющей матриц удовлетворяет соотношению б = Н = Н+ Н = РБ, где б— общее преобразование, объединяющее системы смешивания и разделения сигналов; Р — некоторая матрица перестановок; Б — масштабирующая матрица. Такая степень неопределенности, как правило, не бывает существенной при анализе результата РСС, т. к. важен вид компонент СИ 8(к).
Для задачи РСС нередко используют предположение о статистической независимости компо-
vt
6) Псевдообратная (Н+) матрица — это эквивалент обращения неквадратной (т х п) матрицы Н [9].
нент СИ, поэтому иногда перепутывают анализ независимых компонент (АНК) и РСС. Однако для разделения сигналов можно использовать более слабое условие, принимая, что они имеют временные структуры с различными автокорреляционными функциями (АКФ)7) и/или они нестационарны с изменяющимися по времени дисперсиями. Методы, которые используют либо временную структуру источников (главным образом корреляции второго порядка), либо их нестационарность, являются методами, основанными на применении статистик второго порядка. Эти методы (в отличие от метода РСС, основанного на статистиках высокого порядка), не подразумевают определенности о распределении источников или о нелинейности активационной функции нейронов сети [10].
Таким образом, далее будут рассмотрены методы и алгоритмы РСС, которые для получения ИСМ используют обучение на отдельных интервалах сигналов сенсоров и их пространственно-временную декорреляцию. При этом предполагается присутствие пространственно коррелированных, но белых (для каждого сенсора) шумов, которые не обязательно должны быть гауссовыми. Кроме того, для подходящего набора задержанных по времени корреляций измерительных данных получена устойчивая к шумам оценка СМ Н. Основные положения, на которых базируется последующий анализ.
П.1. Смешивающая матрица Н имеет полный ранг.
П.2. Источники пространственно некоррелиро-ваны, имеют различные автокорреляционные функции, но в то же время в каждом канале они являются коррелированными по времени (окрашенными) стохастическими сигналами с нулевым средним.
П.3. Источники являются стационарными или нестационарными сигналами 2-го порядка (т. е. с дисперсиями, которые изменяются со временем).
П.4. Шумы {у{ (к)} являются независимыми от
СИ, могут быть пространственно коррелированными, но во временной шкале они белые, т. е. Б{у(к)Vт(к - р)} = Я V(р), где 5р0— символ Кро-некера, Я„ — произвольная (т х т) матрица
Основные процедуры: одновременная диагонализация
и разложение по собственным значениям
С учетом основных допущений (положения П.1-П.4) корреляционные матрицы вектора сигна-
7) Это эквивалентно, что они имеют различные спектры мощности (СМ), т. к. АКФ и СМ связаны между собой преобразованием Фурье.
лов на сенсорах х(к) удовлетворяют соотношениям (при р Ф 0):
Я х (0) - Е{х(к )хт (к)} = НЯ. (0) Нт + Я V (0);
Ях (р) - Е{х(к)хт (к - р)} = НЯ. (р) Нт .
Из П.2 следует, что Я8 (0) = Е^(к)8т(к)} и Я 8 (р) = Е{8(к )вт (к - р)} являются ненулевыми различными диагональными матрицами.
В случае, если число сенсоров больше, чем компонент смеси, и КМ шума имеет специальную
форму Я „ = Я v(0) = ЕМк) V т(к)} = Су 1т, тогда
дисперсия шума сС (для относительно высокого отношения сигнал/шум) может быть оценена по наименьшему собственному значению матрицы Ях (0) (или по среднему значению (т - п) младших собственных значений этой матрицы), а несмещенная КМ Я х (0) оценена в виде
Я х (0) = Я х (0)-С21т = НЯ, (р)Нт .
Для того чтобы оценить смешивающую матрицу Н (с точностью до масштабирования и перестановки), следует выполнить одновременную диаго-нализацию двух КМ: Ях (0) и Ях (р) в соответствии с (17)8).
При числе сенсоров, равном числу СИ (т = п) выполнение одновременной диагонализации двух КМ (ОД_2КМ), включает два этапа9).
1) Оценивается первая КМ: Я х (0) = (1/ N) х хУ, ^ (х(к)хт(к) )-С21п, и для нее выполняется
РСЗ: Ях (0) = Ух Лх Ухт . После этого выполняется отбеливание посредством линейного преобразования х(к) = 0 х(к) = Л-1/2 Ухт х(к), где 0 = Л-2 Ухт . Это приводит к двум соотношениям:
8) В общем случае производится (приближенная) совместная диагонализация большего числа матриц, хотя основные особенности последовательности преобразований отражены в алгоритме, ориентированном на одновременную диагонализацию двух матриц.
9) Одновременная диагонализация двух симметричных матриц может быть выполнена без двухэтапной процедуры с использованием метода обобщенного РСЗ в виде Я х (р)У = Я х (0)У Л при условии, что Л = = Я-1(0)Я5 (р) имеет различные собственные значения. Тогда оценка СМ Н может быть получена на основе собственных векторов, найденных процедурой ОРСЗ по вышеприведенному соотношению, и имеет вид Н = (Ут)-1 = У-т (как всегда, с точностью до масштаба и перестановки столбцов.)
Я х (0) =
= (1/ N) • Е^ [х(к)хт (к)] = х (0) = Iп,
Я х (Р) =
= (1/ N) • Е ^ [х(к)хт (к - Р)] = 0х (Р) .
(18)
2) Используется ортогональное преобразование для матрицы Я - (р). РСЗ для Я- (р) имеет вид Я_ (р) = у_ Лх Ухт . На основе (17) и (18) получается соотношение
Я х (р) = х (р)0т = 0НЯ, (р)Нт .
Следовательно (при различающихся собственных значениях (СЗ) матрицы Лх), смешивающая матрица выражается соотношением Н = 0-1 Ух = = Ух Л1/2 Ух, и оценка ее получается с точностью до масштаба и матрицы перестановок.
В случае, когда число сенсоров больше количества СИ (т > п) алгоритм для ИСМ более сложен. Процедуры, обеспечивающие выполнение алгоритма, можно разбить на шесть этапов.
1) Оценка КМ сигналов сенсора:
Я х (0) = (1/N )Е ^[х(к )хт(к)].
2) Выполнение РСЗ для Ях (0):
Ях (0) = их Ех Ухт = Ух Лх Ухт = = У Л Ут + У Л Ут
где (тхп)-матрица У, = [у1,у2,...,уп] содержит собственные векторы, связанные с п главными собственными значениями матрицы Л, = = Диаг.[^ >,...,Лп] (в убывающем порядке). Аналогично, (т х (п -1)) -матрица содержит собственные векторы шума, соответствующие собственным значениям10)
Л N = ДиаГ.{^п+1 >Лп+ 2 } (пРи А > А+Д
3) Оценка дисперсии ст2 белого шума как среднее значение (т -п) младших СЗ.
10) Типичное соотношение для собственных значений (СЗ): Л1>Л2,...,>Яп >Яп+1 «Аи+2,...,&Лт, т > п. Это значит, что последние (т - п) младшие СЗ соответствуют подпространству шума, а первые (имеющие значение) главные СЗ соответствуют "подпространству сигнал + + шум". Поэтому количество СИ (п) следует оценивать по числу наиболее значительных СЗ.
4) Выполнение (устойчивого относительно белого шума) преобразования отбеливания
х(к) = Л-1/2 У,т х(к) = 0 х(к), где Л, =
= Диаг.{(А -а2),(А -аХ.ДА -а2)} .
5) Оценка КМ вектора х(к) для временной задержки р (хороший результат дает р = 1) и выполнение РСЗ для КМ Я х (р) = (1/ N) х
хЕ N=1^ (к )х т(к - р)] = и х I х Ут.
6) Проверка того, что для выбранного р все СЗ матрицы Ех различны. Если нет, то повторение этапа 4) с другим значением р.
При условии, что все СЗ различны и отстоят друг от друга достаточно далеко, можно оценить СМ Н и (если необходимо) зашумленные СИ 8:
Н = 0+ их = У, Л1/2 их ;
у (к) = 8(к) = ит х(к) = ит Л-/2 У, х(к).
Достаточно часто уже при р = 1 алгоритм успешно разделяет окрашенные источники с различающимися спектрами мощности, однако точность результата снижается при наличии существенного шума [11]. Устранение этого недостатка позволяет использование двух КМ
Ях(р1) и Ях(р2) при р1 Ф р2. Т. к. по временной характеристике шум — белый и, следовательно, Ях(Л) = НЯ8(А)Нт; Ях(р2) = (р2)Нт, то получается не зависящая от шума оценка матрицы реализующая РСС независимо от распределений вероятности и пространственной структуры (межканальной корреляции) вектора шума [12].
УСОВЕРШЕНСТВОВАННЫЙ АЛГОРИТМ ИСМ
НА ОСНОВЕ СВП И СИММЕТРИЧНОГО СПОСОБА РСЗ
Улучшенные характеристики алгоритма для ИСМ (применительно к методам анализа независимых компонент [3] или РСС) достигаются при использовании "средней структуры СЗ" для набора КМ или матриц кумулянт [13], [14], имеющих различающиеся временные задержки. Из-за ограниченности объема измерительных данных (искаженных наличием шума) в структуре СЗ этих матриц есть различия, а в отдельных случаях СЗ могут быть вырожденными (т. е. некоторые из СЗ совпадают). Поэтому в рассматриваемом алгоритме полезно использовать достаточно большой набор матриц [15].
Устойчивая к шуму ортогонализация СМ для окрашенных сигналов
Для модели смеси СИ x(k) = №(к) + у(к), где x(k) — измеряемый га-вектор сигналов сенсоров, Н — (га х п) -СМ полного ранга, б(£) — п-вектор коррелированных по времени СИ, задача (устойчивой к шуму — робастной) ортогонализации состоит в получении линейного преобразования ^(к) = Qx(k), такого что общая (п х п)-СМ А = QH является ортогональной и не имеющей смещения, обусловленного аддитивным белым шумом у(к).
Робастная ортогонализация (РО) приводит общую (объединенную) СМ к ортогональной форме и является важной процедурой предварительной обработки для ряда методов РСС. РО реализует линейную комбинацию КМ, нечувствительную к аддитивному белому шуму. Комбинация имеет
вид: ^ (а) = Х Я x (Р,), где К = 5-20 [16]п) При подходящем выборе коэффициентов {а,} матрица Я x (а) — симметричная и положительно определенная (СПО).
Алгоритм РО включает этапы, отражающие основные преобразования и логику процедур решения задачи ортогонализации.
1) Оценка набора КМ вектора-сигнала сенсоров для выбранных временных задержек (р1, р2,..., рК) и получение (га х гаК) -матрицы
Я = [Ях (Л)...!^ (Рк)], в которой Ях (р,) = = (((x(k )xT (к - рг)) + (x( к - р г (к)))-(1/2) . Для
матрицы Я проводится РСЗ, т. е. Я = и- Е - Ут , где И = [И8 И „ ]— (га х га)-матрица (И8 = [и1...и п ] размера (га х п)); V — (гаК х гаК)-ортогональная матрица; Е — (га х гаК )-матрица, у которой левые п столбцов содержат подматрицу
Диаг.{о-1,ст2,. ,стп} (при невозрастающем порядке величин с), а правые (гаК - п) столбцов равны нулю12). Число неизвестных СИ п может быть определено как число главных СЗ (за которыми следуют младшие СЗ, соответствующие векторам
подпространства шума). При этом предполагается, что КМ шума Яу = с2 \т и дисперсия шума относительно низкая, т. е. с2 << сС.
2) Вычисление Я 1 = Ит Яx(р,)И8 для 7 = 1,2,...,К.
3) Выбор начального вектора параметров а = [«1,а2,...,«К ]Т.
4) Вычисление Я = VК а Я .
' ¿—17=1 7 '
5) Вычисление РСЗ матрицы Я; проверка, что
Я положительно определенная: если да, то переход к 7, если нет, то к 6.
6) Выбор собственного вектора и, соответствующего наименьшему СЗ матрицы Я, и обновление а, с заменой а на а + 8, где 8 =
= [иТЯ1и...иТЯК и ]т
|| [ит Я1 и...ит ЯК и]
7) Вычисление = £ К=1«, Я x (р,) и
Яx («):
Я x (а. ) = [И ,И „ ] -
. После этого следует 4.
СПО матрицы выполнение РСЗ
Я x («) =
матрицы
0
0
Е „
[И ,И „ ]т
где а. — набор параметров а после сходимости алгоритма, а матрица И8 содержит собственные векторы, связанные с п главными СЗ матрицы Еs = Диаг.Сс,..., с}.
8) Выполнение преобразования робастной ортогонализации: ^(к) = Q- x(k), где Q = Е-
-1/2 ит
11) Обычное отбеливание использует КМ с нулевой задержкой Ян = Яx (0) = Б^(к) - x(k)т}, поэтому белый шум не может быть удален, если его КМ нет достаточно хорошей оценки (особенно при га = п).
12) Строго говоря, это не РСЗ, а разложение по сингу-
лярным числам, которые играют для неквадратных матриц такую же роль, как собственные значения (СЗ) для квадратных матриц. Сингулярные числа или сингулярные значения равны квадратному корню из СЗ матриц Ат А и ААт (эти СЗ совпадают).
Описанный алгоритм целесообразно дополнить следующими замечаниями.
— Алгоритм сходится независимо от выбора начальных условий для а [16]13).
— В случае отсутствия шума последние (га - п) СЗ матрицы Яж (а) равны нулю, так что
Е „ = 0.
— При равном числе СИ и сенсоров (га = п) пп. 1) и 2) в алгоритме не нужны. Просто полагаем
Я, = Яx(р,) = (Яx(р,) + ят(р,))-1/2 .
— Для га > п линейное преобразование ^ = Q x(k), кроме ортогонализации, позволяет оценить число СИ, т. е. матрица ортогонализации понижает массив сигналов сенсоров до п-мерного
13) Условием для этого является то, что все источники имеют различные автокорреляционные функции, которые линейно независимы (или, что эквивалентно, они имеют различающиеся спектры мощности).
вектора, поэтому при условии, что отношение сигнал/шум относительно высоко, можно оценить число СИ.
— Если определить новую смешивающую матрицу в виде А = 0НБ1/2, где Б = Е Я(pi) — диагональная (масштабирующая) матрица с положительными элементами, то ААт = I (т. е. мат" п ^
рица А ортогональная). Таким образом, условие ортогональности необходимо для РСС с помощью процедуры РСЗ.
Алгоритм, основанный на обобщенной процедуре РСЗ
С использованием робастной ортогонализации строятся усовершенствованные варианты алгоритма ИСМ, основанные на простой процедуре РСЗ или обобщенной, ОРСЗ.
Набор матриц {Я1 -АЯ2} (Я1— симметричная, Я 2 — симметричная и положительно определенная матрица, А — параметр, принимающий различные значения) называют симметрично определенным пучком матриц (СОПМ)14). Для СОПМ существует матрица У = [у1...уп ], которая выполняет одновременную диагонализацию Я1 и Я2:
ся за счет замены Rx(pj) и Rx(p2) на Rx(pj) и R x (P2):
VT Rj V = Dj ; VtR2V = D2
(19)
при условии, что диагональная матрица Б1 Б-1 имеет не равные элементы. Это можно преобразовать в задачу ОРСЗ следующим образом:
(20)
R1V = R2V Л,
Rx(Pj) = 0.5{Rx(Pj) + RT(Pj)}; R x (P2) = 0.5{R x (P2) + RT (P2)}.
(2j)
где Л = Диаг.Ц,^,-.-,^ } = Dj D2j (или Rj v; = = Ai R2 v;, i = j,2,...,n ) при условии, что все собственные значения = (Dj) / (D2) различны.
Из условия (20) совместной диагонализации матриц, образующих СОПМП, следует, что обобщенный собственный вектор V является решением в том смысле, что H = (VT)-j .
Алгоритм имеет недостатки, отмеченные Чои, Сичоки и Амари (Choi, Cichocki, Amari) [Ю]: при некоторых значениях pj и p2 КМ
Rx (pj) = Rj и Rx (p2) = R2 не могут быть положительно определенными, а иногда ошибка за счет шума затрудняет получение симметричности этих матриц. Последний недостаток исключает-
14) В английской интерпретации в этом случае используется термин "карандаш матриц" и "симметрично определенный карандаш матриц" [17].
Если же матрица Я.х (р2) не является положительно определенной, то вместо нее вводится линейная комбинация КМ Ях (а) = Е и а Ях (Рi) и набор коэффициентов {ai} выбирается так, чтобы матрица Ях (а) была положительно определенная.
Алгоритм двухэтапного симметричного РСЗ
Вместо подхода на основе ОРСЗ для ИСМ возможно использование обычного симметричного РСЗ в двухэтапной форме. Считая, что число СИ неизвестно и сигналы на сенсорах искажены шумом, а также используя набор КМ и описанные процедуры робастной ортогонализации, мы можем алгоритм с двухэтапным симметричным РСЗ представить в виде следующей последовательности процедур.
1) Выполнение робастного ортогонального преобразования х (к) = 0 х(к) так, чтобы объединенная матрица смешивания А = была ортогональной.
2) Вычисление линейной комбинации набора КМ векторах(к) с задержками времени {р.}:
Я х (Д) = ЕМД я х (рi)
при произвольных Д..
3) Выполнение РСЗ (или ОРСЗ) в виде: Ях (Д) = их -Ех • ит и проверка того, что у набора
параметров в и р. у диагональной матрицы все СЗ различны. Если нет, то повторение 2 и 3 с отличающимся набором параметров. При различающихся и достаточно удаленных друг от друга СЗ можно оценить (без смещения за счет шума)
СМ: Н = 0+ их и оценить СИ:
У(к) = 8(к) = итх(к) = и^ х(к). (22)
ОБЪЕДИНЕННАЯ ДИАГОНАЛИЗАЦИЯ
Помимо рассмотренного алгоритма с усредненной структурой СЗ и использованием РСЗ и ОРСЗ для решения задачи идентификации смешивающей матрицы может применяться процедура приближенной объединенной диагонализации [18], [19]. Целью этой процедуры является получение (ортогональной) матрицы и, которая диаго-
нализирует сразу несколько матриц
M, = UD,.UT + s,. (/ = 1,2,..., L), (23)
где M, — (n x п)-матрица данных (КМ с задержкой времени, или матрица кумулянт); D t — диагональная матрица; s t — аддитивная ошибка; U — матрица шумов. Для L > 2 задача переопределена и имеет только приближенное решение.
Приближенная объединенная диагонализация (ПОД) выполняется с использованием минимизации критерия: J(U,D,) = ^||М1.- UD,.U^|2; при-
1=1
чем минимизация осуществляется по матрице ортогонализации U и по набору диагональных матриц D ,. Это достигается методом сменяемой частичной минимизации: сначала одного набора компонент критерия, а потом другого. Так, если на k-й итерации получена оценка Uk, то следующим этапом минимизируется J (U k ,D,) относительно набора D .
Задача оценки матрицы U может решаться минимизацией вспомогательного критерия:
_ L n 2
J (U)=-H| uT Mu =
1=1 j=i
L2 = -£||Диаг.^М iU}|| , (24)
=1
где ||Диаг.{-}||— норма вектора, состоящего из
диагональных элементов матрицы.
Критерии предполагают, что матрица U ортогональная, а вектор измерительных данных на сенсорах предварительно обработан с использованием процедуры отбеливания. Матрицы М, имеют различную форму. В простом случае для окрашенных СИ с различающимися спектрами можно использовать КМ вида M t = R x ( p.) =
= E{x (k )x T(k - pt )} и для ИСМ применять алгоритм Белоучрани (Belouchrani) [20]. Для отбеленных сигналов сенсоров ортогональная СМ A определяется соотношением A = QH = U (при условии, что хоть одна из матриц D имеет различные диагональные элементы). Оценка СИ имеет вид s(k) = UT Q(k)x (k), а оценка СМ — H = Q+ UT .
Таким образом, робастный алгоритм для ИСМ на основе СВП включает следующие этапы [21]:
1) Выполнение процедуры робастной ортого-нализации: x(k) = Qx(k).
2) Оценка набора КМ: Rx (pt) = (1/ N) x
N
x^x(k)xT(k-p) = QRx(pi)QT для набора вре-
k=i
менных задержек (p1, p2,..., pL ).
3) Выполнение ПОД: Rx (pt ) = UDi UT для Vi, т. е. с использованием алгоритма Кардосо (Cardoso) [19] или Вакса (Wax) [23], оценивается матрица U.
4) Оценка СИ: s(k) = UT Q(k)x (k) и СМ: H = Q+ U .
Модификация алгоритма для ИСМ на основе СВП при нестационарных сигналах
Идентификация смешивающей матрицы, определяющее звено в цепи процедур, реализующих РСС, имеет свои особенности при нестационарных СИ. Метод использует информацию о временной структуре СИ. Аддитивный шум предполагается белым или нежелательные помехи и шум — стационарными.
Предварительно отбеленные измерительные данные на сенсорах разделяются на блоки (с временным окном T), для которых определяются КМ. Для случая, когда СИ имеют изменяющуюся дисперсию и неисчезающие временные корреляции, с учетом упомянутых ранее предположений П.1-П.4 выполняются соотношения:
R x (T, pi ) = ARS (T, pl )AT, Vi,/ ;
ÔRX(TT,p/) = AÔRs(T,Tj,p,)AT , Vi,l,j >i,
где A — (n x п)-ортогональная смешивающая матрица; p, — врементая задержка; Ti — i-е временное окно, а дифференциальная КМ определяется соотношением
ÔR x (T ,Tj, p, ) = R s (T-, p/ ) - R s (Tj, p, ) (i Ф j). (26)
Таким образом, алгоритм на основе СВП для ИСМ при нестационарных сигналах источника включает следующие этапы [12], [23].
1) Применение робастной ортогонализации и получение отбеленного вектора x(k) = Q x(k). На этом этапе используются все доступные отсчеты данных.
2) Разделение (окном Ti) пространственно отбеленных сенсорных данных {x(k)} на L нена-кладывающихся блоков и оценка набора КМ
R x (T, pi ) (для i = 1,..., L ; l = 1,..., M ), т. е. для каждого интервала данных, вырезанного окном, вычисляется M различных КМ для x(k) . (Часто достаточно использовать M = 1, L = 20 и 10-100 отсчетов в каждом блоке).
3) Определение ортогональной матрицы U для вех {Rx(T,Pi)}, используя метод приближенной объединенной диагонализации (ПОД), который удовлетворяет условию UT Rx (Ti, pl) U = D. i, где {D;. i} — набор диагональных матриц.
4) Вычисление смешивающей матрицы
H = Q+ U .
Сравнение алгоритмов
Модификация алгоритма ИСМ для нестационарных сигналов достаточно устойчива к белому шуму независимо от вида его распределения. В качестве меры качества функционирования (МКФ) алгоритма применяется показатель, определяемый соотношением
МКФ =-j-х
n(n 2 j)
хУ Jiy lg*l 2 jl + iy ^ 2 jll, (27)
i=j ^к=jmax^ J ^t=jmaxJJ
где gj — это элемент (i, j) общей матрицы системы, реализующей РСС: G = WH; maxj|gj.| — представляет максимальную величину среди элементов вектора i-й строки матрицы G; max j|gj,| —
максимальную величину среди элементов вектора i-го столбца матрицы G. Когда достигается РСС, МКФ становится близким к нулю (например, менее чем 0.0j).
При большом значении отношения сигнал/шум (ОСШ) рассмотренные алгоритмы работают достаточно хорошо. Определенное различие алгоритмов по МКФ проявляется при низких значениях ОСШ: робастный алгоритм на основе СВП и объединенной диагонализации КМ превосходит алгоритм, использующий только СВП и приближенную объединенную диагонализацию (ПОД). Роба-стный алгоритм для нестационарных сигналов, основанный на ПОД, почти при всех значениях ОСШ превосходит другие алгоритмы. Однако для ОСШ ниже 6 дБ робастный алгоритм, использующий только ПОД, превосходит остальные.
ОСВОБОЖДЕНИЕ ОТ КОРРЕЛЯЦИИ
Реализация пространственной декорреляции, называемой также освобождением от корреляции, играет важную роль в области обработки сигналов.
Два вектора-сигнала — га-мерный x(t) и
п-мерный 8(0, которые связаны линейным преобразованием х(к) = №(к) + е(к) (где Н — неизвестная СМ размера (т х п) и е(к) — т-вектор шума),
в общем случае коррелированны, т. е. Ях8 = = Е{х8т} Ф 0, но ошибка, или шум е, не коррелированна с 8. Поэтому целесообразно найти матрицу Н такую, чтобы новая пара векторов е = х -- Н8 и 8 стала некоррелированной друг с другом:
Я е8 = Е{е8т} = Е{(х - Н 8)8т} = 0.
Кросс-корреляционая матрица Яе8 представляется иначе в виде
Яе8 = Е{х8т -Н88т} = Ях8-НЯ88.
Следовательно, оптимальная СМ, освобождающая от корреляции (уничтожающая корреляцию), выражается соотношением
Нопим. = Я х8 Я -81 = Е{х8т} • (Е{88т})-1 . (28)
Для условий пространственно окрашенного шума и независимости его от СИ оценка минимальной КМ ошибки (или сигнала шума) определяется соотношением
Яее = Е{еет} = Я„ - Ях8 Я^Я8х.
В случае, когда вектор шума пространственно белый, КМ имеет вид Яее = аС I. При этом для относительно большого ОСШ для дисперсии шума ае2 используется оценка
с?2 = (минимальному собственному значению КМ Яхх) или альтернативная оценка в виде
сС = (среднему значению
младших СЗ матрицы Яхх).
Идентификация СМ на основе процедуры освобождения от корреляции
В задаче РСС неизвестными являются СМ Н и СИ 8. При решении этой задачи для получения необходимых оценок возможно использовать модифицированную функцию Р(Н, 8) и построенный на ее основе алгоритм для ИСМ [24]:
ЩН, 8) = Я 55 = Е{е8т}, (29)
где е (к) =х(к) - Н8 и х = [Сс1, £,,..., хт]т; £ = [.?1,¡¡2,...,$т]— фильтрованный вектор-сигнал сенсоров х(к) и оценка СИ 8(к). Более точно сиг-
налы сенсоров и оценки сигналов источника являются фильтрованными с использованием фильтров с одинаковыми передаточными функциями
В( *) = 1 "Ъ^т. е.
/(к) = ХUbrXJ{к - Р) (j = 1'2'-'т);
(k) = 1' bs (k - Р) (/ = 1,2,..., n).
(30)
(31)
где IR ee — оценка КМ шума.
11 = 11 X5 1155 ,
(32)
s¡+1 (k) = D|s|(l)HT (Ak Ds(l)IHT + «г I)-1 x(k),
(33)
Vk, l = 1,2,...,
Выбор фильтра В(г) зависит от статистических особенностей СИ и шума. Описанный подход пригоден, когда СИ окрашенные, т. е. они имеют временную структуру. Из (29) получается соотношение для оценки смешивающей матрицы
Н = Я х, я -1.
Для случая, когда число сенсоров больше, чем количество СИ (т > п), СИ окрашенные и КМ Яее аддитивного и некоррелированного (с СИ) шума известна или для нее есть оценка, может быть использован робастный относительно шума алгоритм в следующей форме.
1) Произвольная инициализация смешивающей матрицы Н и оценка СИ по соотношению
8(к) = (НтЯ -1Н)-1 Нт Я -1 x(k),
где Он(0 = Диаг.{|£п|,—,|}; обозначает оценку вр (к) на }-й внутренней итерации и а\ — подходяще выбранный параметр регуляризации
[4].
2) Итеративная оценка смешивающей матрицы
A:
A k+1 = HA k-п [ A k II55 - II x 5-Yk HA k ],
(34)
T (k 1155 -11X
) — коэффициент за-
2) Вычисление СМ Н(на основе оценки СИ s(k) в 1) по соотношению
где Rxs =(1/N)£ N=1X (k) s T(k) и RM =(1/N)x
XZ N=1 ~s(k) (k).
3) Чередующееся повторение 1) и 2) до достижения сходимости.
Более сложный вариант алгоритма соответствует (нередко встречающемуся) случаю недостаточно определенной задачи, когда число сенсоров меньше количества СИ (т < n). Решение задачи основано на методе Рао и Креутца-Дельгано (Rao, Kreutz-Delgano) [25], который реализован в виде алгоритма. Последовательность процедур алгоритма дает итеративную оценку s(k) и 1.15)
1) После инициализации (аналогичной предшествующему алгоритму) оценка сокращенного числа компонент СИ:
15) При использовании обычного алгоритма для (га < п) СМ получить Н не удается в силу недостаточной определенности задачи (число неизвестных компонент СИ больше количества га соотношений (порождаемых га сигналами сенсоров) для решения задачи.
где Г к =
бывания, который в процессе итераций обеспечивает примерное постоянство нормы у матрицы Н (а это предохраняет от получения тривиального решения Н = 0).
3) Повторение с чередованием 1) и 2) до получения сходимости решения.
ЗАКЛЮЧЕНИЕ
Дана модель формирования смеси ненаблюдаемых сигналов и показаны основные подходы к задаче восстановления вида этих сигналов без априорной информации (или с минимальными ее элементами). Показаны основные подходы к формализации задачи разделения смеси сигналов, включая анализ независимых компонент, отделение сигнала от шума и оценку дисперсии шума по младшим собственным значениям ковариационной матрицы.
— Проанализированы несколько вариантов алгоритмов для решения задач идентификации смешивающей матрицы (ИСМ) и решения задачи разделения сигналов смеси (РСС). Алгоритмы отличаются сложностью и приспособлены к различным условиям и требованиям экспериментальных исследований по восстановлению вида сигналов, которые формируют на сенсорах информационно-измерительной или информационно-управляющей систем измерительную информацию:
• наличие или отсутствие шума, вид распределения его компонент, коррелированность компонент шума в каналах (наличие или отсутствие так называемой пространственной корреляции шума), наличие временной структуры компонент шума;
• наличие корреляции сигналов на сенсорах, которая дает возможность получать оценку ковариационных матриц, и наличие временной структуры этих сигналов на каждом отдельном сенсоре;
• стационарность или нестационарность сигналов источника;
• соотношение количества сигналов в смеси: соотношение размерности вектора-сигнала источника (n) и число сенсоров в ИИС (т), т. е. т > n,
т = n или т < n.
— Алгоритмы РСС основаны на статистиках второго порядка (т. е. на дисперсии, корреляционных функциях, ковариационных и кросс-корреляционных матрицах).
— Рассмотрен обобщенный показатель, определяющий меру качества функционирования алгоритма ИСМ.
— Даны основные преобразования, связанные с получением алгоритмов ИСМ и РСС:
• преобразование отбеливания, обеспечивающее пространственную (межканальную) декорре-ляцию, и критерий оптимизации этой процедуры;
• адаптивная оценка матрицы (обратной к СМ), реализующей РСС, получение этой матрицы с помощью нейронной сети.
СПИСОК ЛИТЕРАТУРЫ
j. Comon P. Independent Component Analysis: A New Conception? // Signal Processing. !994. V. 36. P. 278-3M.
2. Karhunen J., Joutsensaio J. Generalizations of Principal Component Analysis, Optimization Problems and Networks // Neural Networks. Ш5. V. 8. P. 549-562.
3. Piumbiey M. Conditions for Nonnegative Independent Component Analysis // IEEE Transaction on Neural Networks. 2003. V. M, N 3. P. 534543.
4. Тихонов А.Н., Арсенин В.Я. Методы решения некорректных задач. М.: Наука, !979. 284 с.
5. Айвазян С.А., Бухштабер В.М., Енюков И.С., Мешалкин Л.Д. Прикладная статистика. М.: Финансы и статистика, j989. 606 с.
6. Бендат Дж., Пирсол А. Прикладной анализ случайных данных. М.: Мир, !989. 536 с.
7. Amari A. Neural Gradient Works Efficiently in Learning // Neural computation. !998. N Ю. P. 27j-276.
8. Wax M., Kaiiath T. Detection of Signals by Information Theoretic Criteria // IEEE Transaction on Acoustic, Speech and Signal Processing. !985. V. 33, N. 4. P. 487-492.
9. Гантмахер Ф.Р. Теория матриц. М.: Наука, j988. 548 с.
Ю. Choi S., Cichocki A., Amary S. Equivariant Non-stationary Source Separation // Neural networks.
2002. v. j5, n j. p. rn-rn.
П. Moigedey L., Schuster H.G. Separation of a Mixture of Independent Signals Using Time Delayed Correlations // Physical Review Letters. !994. V.72, N 23. P.3634-3637. !2. Choi S., Cichocki A. Separation of Non-Stationary
Sources in Noisy Mixtures // Electronic Letters. 2000. V. 36, April. P. 848-849.
j3. Nanui A.., Zaraoso V. Forth Order Cumulant Based Source Signal Separation // Signal Processing Letters. Ш6. V.3, N П. P. 3^-3^.
j4. Малыхина Г.Ф., Меркушева А.В. Сеть с симметричной функцией преобразования нейронов на основе статистик высокого порядка (СВП) для снижения шума нестационарного сигнала // Научное приборостроение. 2008. Т. !8, № 4. C. Ш-Ш.
!5. Choi S., Cichocki A. An Unsupervised Hybrid Network for Separation of Independent Non-Gaussian Source Signals in Multipath Environment // Journal of Communications and Networks. Ш9. V.j N j (March). P. !9-25.
j6. Tong L., Inouye Y., Liu R. A Finite-Step Global Algorithm for the Parameter Estimation of Multichannel Moving-Average Processes // IEEE Transaction on Signal Processing. j992. V. 40, N Ю. P. 2547-2558.
П. Goiub G.H., Van Loan Ch.F. Matrix Computations. Johns Hopkins, j996. 728 p.
j8. Bounse-Gerstner A., Byers R., Mehrmann V. Numerical Methods for Simultaneous Diagonaliza-tion // Society of Industrial and Applied Mathematics (SIAM) Journal of Matrix Analysis Applications. Ш3. N 4. P. 927-949.
j9. Cardoso J.F., Souioumiac A. Jacobi Angles for Simultaneous Diagonalization // SIAM Journal of Matrix Analysis Applications. !996. V. П, N j. P. Ш-^4
20. Beiouchrani A., Amari M.G., Abed-Meraim K. Direction Finding in Correlated Noise Fields Dased on Joint Block-diagonalization of Spatio-Temporal Correlation Matrices // IEEE Signal Processing Letters. Ш7. V. 4, N 9. P. 88-9L
2L Beiouchrani A., Cichocki A. Robust Whitening Procedure in Source Separation Context // Electronics Letters. 2000. V. 36, N 24. P. 2050-2053.
22. Wax M., Seinvaid J. A Least-Squares Approach to Joint Diagonalization // IEEE Signal Processing Letters. Ш7. V. 4, N 2. P. 52-53.
23. Choi S., Cichocki A. Algebraic Differential Correlation for Non-Stationary Source Separation // Electronics Letters. 200L V. 37 N 23. P. Ш4-Ш5.
24. Amari A. Estimating Function of Independent Component Analysis for Temporally Correlated Signals // Neural Computation. 2000. V. !2, N 9. P. 2083-2Ю7.
25. Rao B.D., Kreutz-Deigado K. An Affine Scaling Methodology for Basis Selection // IEEE Transaction on Signal Processing. !999. V. 47, N j. P. Ш-200.
Санкт-Петербург
Материал поступил в редакцию 4.02.2009.
METHODS AND ALGORITHMS FOR DECOMPOSITION
OF SIGNAL MIXTURE. I. APPLICATION OF DECORRELATION AND SECOND ORDER STATISTICS
A. V. Merkusheva, G. F. Malykhina
Saint-Petersburg
The problem of signal mixture decomposition (with reconstruction of the form of its components) is analyzed with no information concerning the proportions and type of mixing. The available measurement information enters the IMS from its sensors. Methods and algorithm structures (necessary for mixture decomposition) are studied. The algorithms are based on decorrelation of multi-dimension signal, covariation matrixes decomposition, and on using the neural network.
Keywords: signals, mixture, separation, methods, algorithms, decorrelation, neural network
Оригинал-макет подготовлен Беленковым В. Д.
Лицензия ИД № 02980 от 06 октября 2000 г.
Подписано к печати 2j.05.2009 г. Формат 60 х 90){. Бумага офсетная. Печать офсетная. Усл. печ. л. !3. Уч.-изд. л. П.3. Тираж Ш0 экз. Тип. зак. № 270. С 96
Санкт-Петербургская издательская фирма "Наука" РАН !99034, Санкт-Петербург, Менделеевская линия, ! E-mail: main@nauka.nw.ru Internet: www.naukaspb.spb.ru
Первая Академическая типография «Наука», !99034, Санкт-Петербург, 9 линия, !2