УДК 519.714.2
АЛГОРИТМ ИДЕНТИФИКАЦИИ С ПЕРЕХОДОМ О ПРОСТРАНСТВО ПАРАМЕТРОВ
С.С. Гусев, В.М. Чадеев
Рассмотрен алгоритм идентификации статического объекта в случае, когда ошибка измерения выхода объекта приводит к выходу оценок параметров за допустимую область с некоторой вероятностью р, и в случае больших ошибок, когда эта вероятность равна нулю. Дан анализ связи ошибок измерения и вероятного распределения ошибки определения параметров.
Ключевые слова: идентификация, ограничения, статический объект, оценки параметров, ошибка измерения выхода.
ВВЕДЕНИЕ
Качество идентификации объекта управления в большой степени определяет и качество управления сложным объектом. Значительную роль играет учет априорной информации о структуре и параметрах объекта. В статье исследуется работа специального алгоритма идентификации, учитывающего априорную информацию о параметрах объекта и требующего большого объема вычислительных ресурсов. Однако в наше время такие объемы вполне доступны большинству пользователей. Исследуется работа алгоритма при наличии ошибки измерения выхода. Анализируется связь точности идентификации и ошибки измерения.
1. ПОСТАНОВКА ЗАДАЧИ
Рассмотрим алгоритм идентификации, учитывающий априорную информацию о параметрах объекта. Будем рассматривать объект вида
т
у = хк ,
(1)
где у — скалярный выход объекта, х — вектор-строка входных переменных размерности п, h — вектор-строка неизвестных параметров объекта тоже размерности п. Дополнительно об объекте (1) известно, что параметры h принадлежат априорно известной области Н, т. е.
Задача состоит в том, чтобы по экспериментальным данным, заданным в виде матрицы
А =
1 х11 х12 . . х1п У1
2 х21 2 2 х2 . х2п У2
і хі1 хі2 . . хіп Уі
V 5 хЛ xs2 . . хвп уі у
(3)
определить оценки параметров h с учетом условия (2).
2. АЛГОРИТМ ИДЕНТИФИКАЦИИ
Из матрицы исходных экспериментальных данных (3) выделим матрицу входов размером п х 5
( \ х11 х12 ... х1п х21 х22 ... х2п
V хЛ х$2 ... xsn
к є Н.
(2)
и матрицу выхода У = (ур у2, ..., у^) размером 1 х 5.
Предполагается, что строки матрицы X линейно независимы. Если в исходных данных есть линейно зависимые строки, то их необходимо удалить до применения алгоритма, сократив число данных. Это условие означает, что определитель матрицы, составленный из любых п строк матрицы X, не равен нулю.
Алгоритм идентификации, подробно описанный в работе [1], состоит в следующем. Из матрицы исходных данных (3) выбираются блоки из произвольных п строк (по размерности объекта). Для каждого блока составляется своя система уравнений. Соответствующая первому из таких блоков система уравнений имеет вид:
*1*11 + к2Х12 + ... кпХ1п = Уі
*1*21 + *2*22 + ... *пХ2п = У 2
к1Хп1 + *2Хп2 + ... кпХпп = Уп
где к — оценки параметров объекта ^ или в мат-
т
ричном виде Хк = У.
Умножая левую и правую части этого равенст-т
ва слева на X , получим систему нормальных уравнений
ХтХкт = ХтУ,
(4)
из которой методом наименьших квадратов вычисляются оценки параметров объекта (1).
Из матрицы (3) можно получить С" таких
п-мерных блоков, для каждого из которых строится свой вектор оценок параметров объекта (1). Все эти оценки параметров собраны в матрицу В, содержащую С" строк и 2п столбцов и имеющую вид
где
В =
ь = сп.
11 12
... а
1 п к11 к12 ... к1 п
а21 а22 ... а2п к21 к22 ... к
aL1 aL2
2п
... aLn kL1 kL2 ... kLn )
(5)
В любой строке матрицы В в первых п позициях перечислены номера строк а., матрицы А (і — ноу
мер строки матрицы В, і = 1, 2, ..., Ь), j — номер строки матрицы А, j = 1, 2, ..., я)), использованных для вычисления п оценок к.., вычисленных по этим строкам и расположенных в матрице (5) на последних п позициях. Априорное условие (2) учитывается путем вычеркивания из матрицы (5) всех строк, в которых оценки к не удовлетворяют условию к є Н, где к = (кг1, кй, ..., кп), і = 1, 2, ..., Ь.
В результате вычеркивания получается матрица
В0 =
а
11 а12 21 а22
1 п к11 к12 2п к21 к22
1п
2п
к є Н,
V аШ а№2 ... аЫп к№1 к№2 ... кЫп )
где N т ь.
т
Введем вектор ^ = (^(1), и^(2), ..., м>(я)), размерности я, где ^(у) — частота использованияу-й строки матрицы А в матрице В0.
Введем матрицу Д отличающуюся от матрицы А тем, что в нее добавлен вектор-столбец w
w(1) 1 Х11 Х12 ... Х1п У1
W(2) 2 Х21 Х22 ... Х2п У2
w(я) я ХЛ Х^2
Последний шаг алгоритма состоит в том, что строки матрицы ¥ сортируются по первому столбцу так, чтобы значения ^(./) возрастали снизу вверх. Обозначим полученную таким образом матрицу через ¥0.
Оператор, реализующий описанный алгоритм, обозначим через ¥. Он преобразует матрицу исходных данных А в матрицу данных, отсортированную по частоте использования строк в матрице В0, учитывающей априорные условия к. е Н. Это можно записать как ¥0 = ¥{А}, к. е Н.
Рассмотрим некоторые свойства оператора ¥, позволяющие существенно повысить точность идентификации.
3. ОСНОВНЫЕ РЕЗУЛЬТАТЫ
Докажем, что оператор ¥ преобразует матрицу исходных данных (3) таким образом, что данные с большими ошибками измерения с большой вероятностью оказываются внизу блока данных. Это позволяет отбросить часть данных с большими ошибками и использовать для идентификации только отфильтрованные данные.
Предположим, что входные переменные х измеряются без ошибок, а выход у — с ошибкой е. Рассмотрим несколько основных случаев.
3.1. Большие ошибки
Предварительно введем некоторые определения.
Будем называть ошибку измерения конкретного выхода у. большой, если при использовании этого выхода в любом п-мерном блоке оценки к £ Н.
Теорема 1. Если в матрице исходных данных (3) точно в т произвольных строках выход у измеряется с большой ошибкой, а в остальных без ошибки, и выполняется условие 5 > п + т, то в результате применения оператора ¥ все строки с ошибкой окажутся внизу матрицы ¥0, по верхним 5—т—п строкам этой матрицы могут быть получены точные оценки параметров объекта (1). ♦
Доказательство.
Заметим, что из общего числа С” строк матрицы (5) только С”_ т строк не будут содержать ошибочных выходов. Только эти строки войдут в матрицу В0. Каждая строка в этой матрице будет
встречаться С”_ т-1 раз. Строки с ошибками (по определению большой ошибки) в матрицу В0 не войдут и, следовательно, значение ц> для этих строк будет равно нулю. Поскольку оператор ¥ сортирует строки по частоте м>, то это и доказывает утверждение. ♦
3.2. Общий случай
Рассмотрим теперь случай, когда ошибка измерения выхода у приводит к выходу оценок за область Н только с некоторой вероятностью р для всех п-мерных блоков, в который вошел этот выход у. Ранее, при больших ошибках, эта вероятность была равна единице.
Пусть среди всех 5 строк матрицы исходных данных (3) только два произвольных измерения выхода сделаны с ошибкой. Для краткости будем называть п-мерный блок, не содержащий строки с ошибочными измерениями, чистым, а содержащий — ошибочным. Ссылки на п-мерный блок и однозначно ему соответствующую строку в матрице В будем использовать одновременно.
Теорема 2. Если среди исходных данных (3) есть только два измерения выхода у. и у., сделанных с ошибками, которые приводят к выходу оценок за область Н с вероятностью р. и р. (для определенности р. > р.) соответственно, то в результате применения
. У
оператора ¥ в среднем будут выполняться неравенства т(к) > м() > w(i), к ^ і, к ^ у. ♦
Доказательство приведено в работе [2].
Подчеркнем, что последовательность строк, задаваемая условиями теоремы 2, выполняется только в среднем, а не в каждом конкретном случае.
3.3. Редкие ошибки
Если в объекте типа (1) входные х и выходные у переменные редко измеряются с ошибками, то рассмотренный алгоритм идентификации при соблюдении некоторых условий дает возможность по экспериментальным данным (3) точно определить неизвестные параметры h.
Теорема 3. Если матрица исходных данных А содержит точно т переменных (входных или выходных), измеренных с ошибкой, то параметры объекта (1) могут быть определены точно при условии 5 > п + т + I, где 11 1. ♦
Доказательство. В наихудшем случае все т ошибок будут распределены по разным строкам матрицы исходных данных (3). Соответственно ос-
тавшиеся, по крайней мере, (п + I) строк не будут содержать ошибок. Следовательно, построенные по этим строкам оценки будут точными. В каких именно строках не было ошибок, заранее не известно. Но матрица (5) будет содержать С”+ / строк, в которых векторы оценок к будут совпадать. Совпадающие оценки и будут точными параметрами объекта. ♦
4. СВЯЗЬ ОШИБКИ И ВЕРОЯТНОСТЕЙ
При реализации описанного алгоритма промежуточные оценки вычисляются по методу наименьших квадратов с помощью формулы Крамера к. = \и.\/\и|, / = 1, 2,..., п, где \и\ = \ХТХ| — определитель системы нормальных уравнений (4), 1и)\ — определитель, который получается из определителя матрицы и заменой /-го столбца столбцом свободных членов системы нормальных уравнений (4).
При наличии ошибок измерения выхода оценки можно представить в виде [3] к. = \иЦ\/\ и \ = к. + + \иЕ\/\и \, где и — матрица, содержащая ошибку е в ]-м столбце, или
к. = к. + е\В. \/и, (6)
где \В..\ — минор матриц и, не содержащий ошибок измерения выхода.
Ошибка оценки параметров Ак. = к. — к. и ошибка измерения выхода е связаны, как следует из формулы (6), следующим образом:
Ак = -е\Вц\/\и \.
Вероятностное распределение ошибки определения параметра Ак будет таким же, как и распределение ошибки е измерения выхода с точностью до не зависящего от помехи коэффициента \В..\/\и \.
Если Де) — плотность вероятности распределения центрированной ошибки измерения выхода (М{е} = 0), то среднее значение ошибки определения параметра объекта будет определяться формулой
I В I
М{Ак} = - Г Де)е Н|
ЕЙ С
и, очевидно, равно нулю.
Дисперсия ошибки определения параметра
)е |Ц| ‘к
= - Г Де).
ЕЙ й
.2 \Щ‘
йЕ.
Рассмотрим случай, когда априорно известная область существования параметров Н представляет собой параллелепипед с ребрами, параллельными осям координат в пространстве параметров. Ошиб-
Распределение ошибки оценки
ка измерения выхода имеет центрированное нормальное распределение N(0, а). Для оценок параметров используются блоки по п произвольных строк исходных данных, в которых только один выход измеряется с ошибкой. Рассмотрим два блока данных, отличающихся тем и только тем, что в одном случае ошибка измерения выхода имеет распределение N(0, а1), а в другом N(0, а2). Для определенности а1 > а2. Тогда имеет место следующее утверждение.
При прочих равных условиях, вероятность р1 выхода оценки кза границы области Н в первом случае будет больше вероятности р2 выхода оценки к за границы области Н во втором. Доказательство непосредственно следует из рисунка.
Дисперсии ошибки измерения выхода е и ошибки оценки АН параметров связаны (в соответствии с формулой (6)) коэффициентом а = —|Д..|/|и|, т. е.
У
дисперсии оценок а1к и а2к вычисляются через дисперсии ошибки измерения выхода по формулам а^ = аа 1 и 02ь = аа2.
Плотность вероятности ошибки определения параметров при ошибке измерения выхода с параметрами N(0, а1) и N(0, а2) и определяется формулами
/i(ki) =
/#2) =
>1h
(h - k1)
(h - k2 ) 2 a k h
CT2 h'J2n
Поскольку априорная область существования оценок в обоих случаях одна и та же, кт-п < кі < ктях,
то для вычисления вероятностей необходимо выполнять интегрирование тоже в одинаковых пределах.
Вероятности выхода оценок за область Н задаются формулами
p1 = 1 p2 = 1
j /i(ki)dh,
min
max
j /2(k2)dh.
ЗАКЛЮЧЕНИЕ
В работе рассмотрен алгоритм идентификации статического объекта, учитывающий априорную информацию о его параметрах. Алгоритм преобразует блок исходных данных в множество блоков меньшей размерности. Для каждого из этих блоков вычисляются оценки параметров объекта и запоминаются номера строк, использованных для вычисления этих оценок. Оператор, реализующий описанный алгоритм, преобразует матрицу исходных данных в специальную матрицу, учитывающую частоту попадания оценок в область Н. Рассмотрен объект, в котором входные переменные измерялись без ошибки, а выходные — с ошибкой.
Дан анализ связи ошибки измерения выхода с вероятностью выхода оценок параметров за априорно известную область существования параметров объекта. Найдены условия, при которых возможна точная идентификация объекта.
ЛИТЕРАТУРА
1. Чадеев В.М., Илюшин В.Б. Метод идентификации, учитывающий априорную информацию о параметрах объекта // Тр. V междунар. конф. «Идентификация систем и задачи управления» SICPRO’06. Москва, 30 января — 2 февраля 2006 г. / ИПУ РАН. — М. — 2006. — С. 1091—1105.
2. Чадеев В.М., Гусев С.С. Идентификация с ограничениями. Определение оценок параметров статического объекта // Тр. VII междунар. конф. «Идентификация систем и задачи управления» SICPR0’08. Москва, 28 — 31 января 2008 г. / ИПУ РАН. — М. — 2006. — С. 261—269.
3. Райбман Н.С., Чадеев В.М. Построение моделей процессов производства. — М.: Энергия, 1975.
Статья представлена к публикации членом редколлегии
Ф.Ф. Пащенко.
Чадеев Валентин Маркович — д-р техн. наук, ведущий науч. сотрудник, e-mail: [email protected],
Гусев Сергей Сергеевич — аспирант, e-mail: [email protected],
Институт проблем управления им. В.А. Трапезникова РАН,
г. Москва, в (495) 334-87-59.
h
h
min
2
2
1
а
e
1
e