УДК 62-50:519.6
РЕГРЕССИОННЫЙ АНАЛИЗ ВО ВЗАИМОСВЯЗАННЫХ ЭЛЕКТРОМЕХАНИЧЕСКИХ СИСТЕМАХ НА БАЗЕ МЕТОДА ОПОРНЫХ ВЕКТОРОВ
А. И. Шереметa, канд. техн. наук, доцент А. В. Садовой6, доктор техн. наук, профессор
аДонбасская государственная машиностроительная академия, Краматорск, Украина бДнепродзержинский государственный технический университет, Днепродзержинск, Украина
Постановка проблемы: в ряде случаев при управлении автоматизированными электромеханическими системами необходимо устанавливать регрессионные связи между управляемыми координатами. Метод опорных векторов может успешно применяться не только для решения задач классификации и диагностирования, но и для выполнения регрессионного анализа. Целью работы является обоснование возможности применения метода опорных векторов для установления соотношений между управляемыми координатами во взаимосвязанном электроприводе с дискретными временными эквалайзерами. Методы: исследованы особенности и преимущества регрессии на опорных векторах, возможности применения метода опорных векторов во взаимосвязанном электроприводе. Результаты: проанализировано математическое описание и аналитическая структура регрессионного алгоритма на базе опорно-векторной машины; предложена функциональная схема электромеханической системы со взаимосвязанным управлением на базе дискретных временных эквалайзеров, целевая функция управления в которой формируется с помощью регрессионной модели; приведен пример выполнения регрессионного анализа программным путем с помощью MatLab SVM Toolbox. Установлено, что эталонная целевая функция, которая формируется в результате SVR-анализа, может быть изменена путем выполнения переобучения алгоритма SVR и не требует подбора специальных регрессионных зависимостей. Практическая значимость: результаты исследований могут быть применены при проектировании взаимосвязанных электромеханических систем, целевая функция которых формируется с помощью регрессионного анализа.
Ключевые слова — регрессионный анализ, целевая функция управления, электромеханическая система.
Введение
Во взаимосвязанных электроприводах, реализующих некоторую целевую функцию управления технологическим процессом, часто возникает вопрос установления функциональных, корреляционных или регрессионных связей между управляемыми координатами.
При функциональной связи каждому значению одной из координат ставится в соответствие только одно значение другой. Такую связь целесообразно использовать в детерминированных системах, подлежащих формализации с помощью математического аппарата элементарных функций.
Корреляционные связи между управляемыми координатами используются при наличии статистических взаимосвязей между ними, которые иллюстрируются корреляционным полем или коэффициентом корреляции. Регрессионный анализ, в отличие от корреляционного, не определяет, насколько существенной является связь между величинами, а выполняет поиск модели этой связи в виде некоторой функции регрессии. Регрессионную связь между управляемыми координатами удобно использовать, когда отношение между ними количественно выражается в виде многочисленных комбинаций. Это могут быть как экспериментально полученные данные,
так и некоторые расчетные точки, характеризующие соотношение между управляемыми координатами.
Метод опорных векторов, общие подходы относительно возможностей использования которого в электроприводе рассмотрены в работе [1], можно применять не только для решения задачи классификации или диагностирования, но и для выполнения регрессионного анализа, что дает ряд преимуществ перед традиционными подходами. Поставим задачу применения метода опорных векторов для установления соотношений между управляемыми координатами во взаимосвязанном электроприводе с дискретными временными эквалайзерами [2] в качестве регуляторов.
Особенности и преимущества регрессии на опорных векторах
В своем нынешнем виде метод опорных векторов, или опорно-векторная машина (support vector machine — SVM), был разработан в 1995 г. в американской корпорации AT&T Bell Laboratories под руководством выдающегося ученого в сфере машинного обучения В. Н. Вапника. Изначально SVM позиционировался как алгоритм для решения классификационной задачи, однако с конца 90-х годов XX века его начали использовать и для выполнения регрессионного
Функция потерь
анализа. Для подчеркивания того, что решается именно регрессионная задача, аббревиатуру метода опорных векторов меняют с SVM на SVR (support vector regression) [3].
Преимуществом SVR перед другими методами регрессионного анализа является определение параметров регрессионной модели путем решения задачи квадратичного программирования, имеющей только одно решение.
При использовании SVM нелинейная регрессия в исходном пространстве F может рассматриваться как задача построения линейной регрессии в некотором расширенном пространстве H, которое имеет большее количество измерений, чем F. Это преобразование выполняется за счет нелинейного отображения ф: F ^ H. В отличие от формулировки SVM, где гиперплоскость должна была отделять одну группу признаков от другой, в SVR гиперплоскость строится таким образом, чтобы как можно больше точек попали на нее в качестве опорных векторов или хотя бы оказались в некоторой доверительной зоне регрессии. Точки x, лежащие на этой плоскости, будут удовлетворять условию [4]
wx + b = 0,
где w — нормальный к гиперплоскости вектор.
Перпендикуляр, определяющий расстояние от гиперплоскости до начала координат, находится как |b/||w||, где выражение ||w|| называют евклидовой нормой или длиной [5] вектора w. Исходной информацией для выполнения регрессионного анализа по SVM является обучающая выборка вида S = ((xp y1), (x2, y2), ..., (xn, yJ). Тогда задача линейной SVR-регрессии состоит в нахождении функции
f(x) = (w • x) + b.
При нелинейной регрессии, используя нелинейное отображение, эту функцию можно представить в виде
f(x ) = (w -ф(х)) + b.
Задачу поиска оптимальной гиперплоскости SVR-анализ сводит к квадратичной задаче минимизации функционала
(1 t Л
min * -w2 + + )1
при действии ограничений
У/ -(((x/) + b)<e + ^/; (((xi) + b)-у/ <e + l*;
%/, > 0, / = 1,2.....t,
где С — положительная константа, чем больше ее значение, тем больше будет штраф ошибки;
У*
^ — переменные, определяющие соответственно верхнюю и нижнюю границы погрешности обучения; е — функция потерь (чаще всего она является кусочно-линейной — рис. 1).
Векторы выборки входят в задачу регрессии только через скалярные произведения, поэтому можно использовать отображение в пространство признаков и перейти к ядерной версии SVM [5].
На практике зачастую решается так называемая двойственная задача [5], а функция регрессии представляется в следующем виде:
f(х) = ¿(ос,- - а*) K(x, X/) + b,
где а; и а* — двойственные переменные, удовлетворяющие условию 0¿(а,-, а* 1< С; К^, x¿) — ядерная функция.
Разности а - а*; представляют собой весовые коэффициенты характеризующие вклад соответствующих опорных векторов в формирование функции регрессии.
Наиболее распространенными ядерными функциями являются следующие: линейная, гауссова радиально-базисная, полиномиальная, сигмоидальная, экспоненциальная радиально-базисная.
Исходя из практического смысла применения SVR-анализа для установления соотношений между управляемыми координатами электромеханической системы, можно порекомендовать применение линейной ядерной функции в том случае, когда является очевидной линейная связь между величинами, а для всех остальных случаев качественные результаты анализа обеспечивает гауссова радиально-базисная функция
(
K (x, Xj ) = exp
X - X,
2ст2
i|2 Л
(1)
где ст — параметр, от величины которого зависит ширина размаха функции.
Преимуществом регрессионного анализа с использованием SVM является возможность задавать сразу величину е, формируя таким образом соответствующую доверительную зону, оказы-
ваясь в которой можно считать погрешность соотношения между управляемыми координатами допустимой.
Аналитическая структура регрессионного алгоритма на базе SVM представлена на рис. 2 [6]. Она иллюстрирует основные этапы обработки данных: задание значений тестового вектора, нелинейное отображение или маппинг векторов, вычисление скалярного произведения или ядерной функции, суммирование полученных результатов с учетом весовых коэффициентов и параметра b.
Для программной реализации SVR-анализа чаще всего используют язык программирования C или Python. Наиболее распространенным программным продуктом для реализации как классификационных, так и регрессионных задач с помощью SVM является SVMlight [7], имеющий интерфейсы для Perl, Python, Ruby, Java, .NET и других языков программирования. Также существуют дополнения к программному пакету MatLab, которые расширяют его функциональные возможности, добавляя поддержку SVM. Среди таких дополнений можно отметить LIBSVM [8], PRTools [9], MatLab SVM Toolbox [10].
Работа MatLab SVM Toolbox хорошо документирована в руководстве [11]. MatLab SVM Toolbox предоставляет возможности для решения классификационных и регрессионных задач в программном пакете MatLab, который широко используется для моделирования автоматизирован-
■ Рис. 2. Аналитическая структура регрессионного алгоритма на базе SVM
ных электромеханических систем. Пользователь программного обеспечения при этом избавляется от необходимости выполнять рутинное программирование и работает с алгоритмом, реализующим SVM через графический интерфейс или через командную строку главного окна MatLab.
Применение метода опорных векторов во взаимосвязанном электроприводе
Во взаимосвязанном электроприводе с помощью SVM можно построить регрессионную эталонную модель поведения многомерного объекта управления таким образом, как показано на рис. 3.
В данном случае под многомерным объектом управления подразумевается сложный технический объект, имеющий некоторое количество неотделимых и взаимосвязанных частей, например моталка прокатного стана, система наведения радиолокационной станции, испытательный стенд механических трансмиссий вертолетов и т. п. Элементы таких объектов связываются между собой различного рода упругими связями и зачастую описываются линейной или линеаризованной системой дифференциальных уравнений.
Объект управления имеет n входов и должен реализовывать некоторую n-мерную целевую функцию R. За формирование каждой из n входных координат объекта управления отвечает отдельный автоматизированный электропривод с дискретным временным эквалайзером [2]. Таким образом, на объект управления поступают сигналы y1(i), y2(t), ..., yn(t) от локальных электроприводов, а на его выходе образуется некоторая целевая функция R(y1(t), y2(t), ..., yn(t)). При этом под действием возмущений g1(t), g2(t), ..., gk(t) значения целевой функции могут отличаться от желаемых. Электроприводы, формирующие сигналы y1(t), y2(t), ..., yn(t), реализованы на базе дискретного временного эквалайзера с модифицированным принципом симметрии объекта управления [12]. Каждый из них состоит из следующих элементов (см. рис. 3):
— программы формирования задания и настройки эквалайзера;
— дискретного временного эквалайзера, который отвечает за формирование динамических и статических характеристик привода;
— двух квантователей с периодом T;
— экстраполятора нулевого порядка, выполняющего цифроаналоговое преобразование и согласовывающего между собой дискретные и аналоговые элементы схемы;
— исполнительной подсистемы (двигателя и управляемого преобразователя);
— обратной эталонной модели исполнительной подсистемы;
— блока модификации обратного преобразования;
— датчика обратной связи.
Каждая из n исполнительных подсистем получает свой сигнал управления u1(t), u2(t), ..., un(t). Также на каждую исполнительную подсистему действует ряд возмущений f11(t), f12(t), ..., f1q(t);
f21(t), f22(f), . f2q(t); .; fn1(t), fn2(t), fnq(t).
Датчики обратных связей выполняют измерение координат y1(t), y2(t), ..., yn(t) и преобразуют их в сигналы обратных связей x^^t), xcx2(t), ..., xQ с n(t), которые подаются на входы сумматоров, где вычитаются от соответствующих входных
сигналов ^х!^ xBх2(t), Xвх n(t).
Значение целевой функции R(Y), зависящей от вектора выходных координат Y =(( (t), У2 (t),..., yn (t)), измеряется на выходе объекта управления с соответствующим датчиком (когда целевая функция характеризуется физической величиной, которая поддается измерению) или вычисляется с помощью соответствующего устройства или программного обеспечения (когда целевая функция не является физической величиной, которую можно непосредственно измерить). В результате измерения или вычисления получаются значения /?(Y), которые с определенной точностью воспроизводят реальные значения целевой функции R (Y).
Для того чтобы оценить отклонения измеренных значений целевой функции R(Y) от эталонных Ry (Y), используется эталонная модель объекта управления и регулятор значения целевой функции. Эталонная регрессионная модель объекта управления, выполненная с помощью SVR, принимает на вход вектор расчетных или экспериментально полученных значений входов
объекта управления Y и соответствующие исходные значения R, регрессионная связь между которыми устанавливается путем выполнения SVR-анализа. Эталонная целевая функция может формироваться на подготовительном этапе (перед началом функционирования электромеханической системы в соответствии с технологическими требованиями) или изменяться в процессе работы, что требует некоторого времени на переобучение алгоритма SVR.
Регулятор целевой функции принимает на свой вход измеренную или вычисленную целевую функцию R(Y), все сигналы обратных связей с датчиков локальных электроприводов xo.c^t), x^t), ..., xо.с n(t), эталонную целевую функцию Ry (Y)и выполняет вычисления отклонений Ay (t), Ay? (t), ..., Ayn(t), поступающих в соответствующие программы для задания входных сигналов и настройки дискретных эквалайзеров.
1Л м
I
в о
"О >
с
0
1 I
о
-к Г]
5
ш
5 Е
т п
п Ч
Эталонная регрессионная модель объекта, выполненная на базе Н\'|{
Регулятор значения целевой функции
ХоЛИ
а ik
М
т
Программа задания входного сигнала и настройки эквалайзера 1
Коэффициенты настройки эквалайзера 1_
МП ып
—►
Дискретный временной эквалайзер 1
Экстраполятор нулевого порядка
Обратная эталонная модель исполнительной подсистемы 1
Блок модификации обратного преобразования 1
—►
Исполнительная подсистема 1
Ш*)
Программа задания входного сигнала и настройки эквалайзера 2
Коэффициенты настройки эквалайзера 2
Датчик обратной связи по выходной координате у^)
-►
Дискретный временной эквалайзер 2
л-
Экстраполятор нулевого порядка
Обратная эталонная модель исполнительной подсистемы 2
А УгН) -►
Программа задания входного сигнала и настройки эквалайзера п
Коэффициенты наст-ройки эквалайзера п
Датчик обратной связи по выходной координате
Лвхя( ^
Дискретный временной эквалайзер п
Экстраполятор нулевого порядка
Обратная эталонная модель исполнительной подсистемы п
Блок модификации обратного преобразования п
МП
ш
/21(0 1 ш Г ' г
Блок модификации обратного преобразования 2 и2Ц) —► Исполнительная подсистема 2
Исполнительная подсистема п
уМ
и
к
к
X ф
ф ч
м
Ю ей
О а к
Щ)
-9—►
Датчик обратной связи по выходной координате г/л(£)
ДУ)
Устройство для измерения или вычисления значения целевой функции
ЩУ)
s
I
е о
XI >
с
0
1 I
9 <
□ р
5
Е s т п
п ч т
Рис. 3. Функциональная схема электромеханической системы со взаимосвязанным управлением на базе дискретных временных эквалайзеров
Пример выполнения регрессионного анализа в MatLab SVM Toolbox
Проиллюстрируем возможности MatLab SVM Toolbox по формированию регрессионных зависимостей на примере отработки некоторой эллиптической траектории (в относительных единицах)
х (t) = cos (t), y(t) = 0,5 sin (t)
двухкоординатным приводом, считая, что нужная траектория была получена эмпирическим путем с некоторой погрешностью по обеим управляемым координатам. Выбор эллиптической траектории обусловлен особенностями функционирования многомерных автоматизированных электромеханических систем, взаимосвязь между управляемыми координатами которых чаще всего описывается в виде непрерывных многомерных функций. Тем не менее существуют современные модификации алгоритма SVR, позволяющие работать с разрывными и кусочно-монотонными функциями, например, разработанный в 2010 г. метод многофазной регрессии на опорных векторах mp-SVR [13].
Пусть при изменении параметра t (олицетворяет время) были получены следующие эмпирические значения: x1(0) = 0,98, x1(^/4) = 0,72, x1(^/2) = -0,03, x1(3^/4) = -0,69, x1(^) = -0,98, x1(3^/2) = -0,07, x:1(2^) = 1,04 и x2(0) = 0,05, x2(tc/4) = 0,37, x2(TT/2) = 0,53, x2(3TT/4) = 0,36, x2(tc) = 0,05, x2(3 л/2) = -0,51, x2(2tc) = -0,02. Ограничения, действующие на управляемые координаты, учитываются с помощью регулятора значений целевой функции (см. рис. 3), а регрессионная траектория строится в области допустимых значений координат.
Эллиптическая траектория с эмпирическими значениями опорных точек показана на рис. 4.
Результаты регрессионного анализа в MatLab SVM Toolbox методом опорных векторов с ис-
x2(t) 0,6 0,4 0,2 0
-0,2 -0,4 -0,6 -0,8
-1,5
-0,75
0,75
1,5
x1(t)
■ Рис. 4. Эллиптическая траектория с эмпирическими значениями опорных точек
■ Рис. 5. Результаты выполнения SVR-анализа для координаты x1 (а) и x2 (б)
пользованием гауссовой радиально-базисной ядерной функции (Gaussian RBF) представлены на рис. 5, а, б. Выбранные настройки: ст = 1 (стандартное значение для Gaussian RBF); погрешность для задания функции потерь е = 0,05.
Выбранная эллиптическая траектория построена совместно с результатами, полученными после применения SVR-анализа к эмпирическим точкам (рис. 6).
Для получения результатов регрессионного анализа, показанных на рис. 5 и 6, использовались следующие операторы MatLab и MatLab SVM Toolbox: uiregress — предоставляет графический интерфейс для выполнения SVR-анализа в среде MatLab; svrplot — строит линию регрессии для решения двухмерных регрессионных задач; plot — предоставляет возможности для построения траекторий в координатах x1(t), x2(t).
Положительной стороной SVR-анализа является однозначная сходимость регрессионного алгоритма, а получаемая ошибка зависит как от точности экспериментальных данных, так и от ширины размаха ядерной функции ст (1).
0
x2(t) 0,4 0,2 0 -0,2 -0,4 -0,6
x1(t)
■ Рис. 6. Траектория изменения управляемых координат, полученная в результате SVR-анализа
Уменьшение ст следует выполнять при повышении точности экспериментов.
Траектория, полученная по результатам SVR-анализа (см. рис. 6), воспроизводит исходную эллиптическую траекторию с некоторой погрешностью (наблюдается сдвиг вверх и вправо). Выполним повторное обучение алгоритма на более точных экспериментальных данных (рис. 7).
Результаты уточненного регрессионного анализа в MatLab SVM Toolbox методом опорных векторов с использованием Gaussian RBF показаны на рис. 8, а, б. Выбранные настройки: ст = 1 (стандартное значение для Gaussian RBF); погрешность для задания функции потерь е = 0,01.
Выбранная эллиптическая траектория построена совместно с результатами, полученными после применения SVR-анализа к уточненным эмпирическим точкам (рис. 9).
Сравнив результаты SVR-анализа, представленные на рис. 6 и 9, можно сделать вывод, что увеличение точности экспериментальных данных и переобучение алгоритма на уточненных значениях при уменьшении зоны нечувствительности функции потерь в 5 раз (от е = 0,05 до е = 0,01)
x2(t) 0,6 0,4 0,2 0
-0,2 -0,4 -0,6 -0,8
N
1
V ;
ч
-1,5
-0,75
0,75
1,5
x1(t)
■ Рис. 7. Эллиптическая траектория с уточненными эмпирическими значениями опорных точек
■ Рис. 8. Результаты выполнения уточненного SVR-анализа для координаты x1 (а) и x2 (б)
x2(t) 0,4 0,2 0 -0,2 -0,4 -0,6
-0,8
■ Эллиптическая траектория
-1
-0,5 0 0,5 1 х1(г)
■ Рис. 9. Траектория изменения управляемых координат, полученная в результате уточненного SVR-анализа
приводит к уменьшению отклонения регрессионной траектории от исходной эллиптической.
Зависимости абсолютных значений ошибок от времени Дх^), Дх2(Ь), построенные по результа-
0
а)
Ax1(i), Ax2(t)
0,14 0,12 0,1 0,08 0,06 0,04 0,02 0
0
1
б)
Ax1(t), Ax2(t)
0,03 0,025 0,02 0,015 0,01 0,005 0
Ax1(t)
Ax2(t)
0
1
2
3
4
5
6
t
■ Рис. 10. Абсолютные значения ошибок по результатам SVR-анализа (а) и уточненного SVR-анализа (б)
там SVR-анализа, и абсолютные значения ошибок после переобучения на уточненных экспериментальных данных, которые использовались для построения линии регрессии, показаны на рис. 10, а и б соответственно.
Литература
1. Шеремет О. I., Садовой О. В. Метод опорних вектс^в // Математичне моделювання. Науковий журнал. Дншродзержинськ: ДДТУ. 2013. № 1(28). С. 13-17.
2. Шеремет О. I. Синтез автоматизованих електроме-хатчних систем посредством дискретного часового еквалайзера // В^ник национального техтчного утверситету «ХП1»: зб. наукових праць. Сер. Про-блеми автоматизованого електроприводу. Теорiя i практика / НТУ «ХП1». Харк1в, 2013. № 36(1009). С. 110-111.
Проанализировав эти рисунки, можно заключить, что максимальные значения ошибок по результатам SVR-анализа составят Ax1max = 0,14,
Ax.
= 0,15 (см. рис. 10, а). После уточнения
2max
экспериментальных данных соответствующие ошибки составят значения Ax1max=0,0303, Ax2max=0,0303 (см. рис. 10, б). Таким образом, после переобучения алгоритма для выполнения SVR-анализа по координате x1 погрешность сократилась в 4,62 раза, а по x2 — в 4,95 раза. Следовательно, повышение точности экспериментальных данных и сокращение зоны нечувствительности функции потерь е способствует уменьшению ошибки регрессионного анализа после выполнения соответствующего переобучения алгоритма SVR.
Заключение
В тех случаях, когда необходимо использовать регрессионную связь между управляемыми координатами во взаимосвязанных электромеханических системах, значительные перспективы имеет применение SVR-анализа, обладающего следующими преимуществами перед другими методами:
— параметры регрессионной модели определяются с помощью решения задачи квадратичного программирования, имеющей только одно решение;
— можно задавать доверительную зону вокруг основной линии регрессии, оказываясь в которой ошибка соотношения между управляемыми координатами считается допустимой;
— эталонная целевая функция, которая формируется в результате SVR-анализа, может быть легко изменена путем выполнения переобучения алгоритма SVR и не требует подбора специальных регрессионных зависимостей, поскольку весь необходимый функционал уже заложен в ядерной функции (в случае нелинейной регрессии лучшие результаты дает ядерная функция Gaussian RBF).
3. Vapnik V. N. The nature of statistical learning theory (information science and statistics). 2nd ed. - N. Y.: Springer-Verlag, 2000. - 314 p.
4. Burges C. J. C. A tutorial on support vector machines for pattern recognition // Data mining and knowledge discovery. 1998. Vol. 2. Iss. 2. P. 121-167.
5. Вьюгин В. В. Математические основы теории машинного обучения и прогнозирования / Институт проблем передачи информации им. А. А. Харкеви-ча РАН. - М., 2013. - 387 с.
6. Smola A. J., Schölkopf B. A Tutorial on Support Vector Regression // NeuroCOLT2 Technical Report Series. 1998. NC2-TR-1998-030. - 71 p.
2
3
4
5
6
t
7. SVMlight. http://svmlight.joachims.org. (дата обращения: 07.10.2013).
8. Chih-Chung Chang and Chih-Jen Lin. LIBSVM. A
library for support vector machines. http://www.csie. ntu.edu.tw/~cjlin/libsvm. (дата обращения: 07.10.2013).
9. PRTools. A MATLAB toolbox for pattern recognition. http://prtools.org. (дата обращения: 07.10.2013).
10. Signals, images, systems (ISIS) Research Group // Support Vector Machines. http://www.isis.ecs.soton. ac.uk/resources/svminfo (дата обращения: 07.10.2013).
_/
11. Gunn S. R. Support vector machines for classification and regression // Technical report faculty of engineering, science and mathematics school of electronics and computer science. - Southampton: University of Southampton, 1998. - 54 p.
12. Садовой А. В. Система оптимального управления прецизионными электроприводами. - Киев: ИСМО, 1996. - 298 с.
13. Park J. I., Kim N., Jeong M. K., Shin K. S. Multiphase support vector regression for function approximation with break-points // J. of the operational research society. 2013. Vol. 64. P. 775-785.
UDC 62-50:519.6
Regression Analysis in Interrelated Electromechanical Systems Based on the Support Vector Method
Sheremet A. I.a, PhD, Tech., Associate Professor, [email protected] Sadovoy A. V.b, Dr. Sc., Tech., Professor, [email protected]
aDonbass State Engineering Academy, 72, Shkadinov St., 84313, Kramatorsk, Ukraine
bDneprodzerzhinsk State Technical University, 2, Dneprostroevskaia St., 51918, Dneprodzerzhinsk, Ukraine
Purpose: In some cases control of automated electromechanical systems implies installing regression connections between controlled coordinates. The support vector method can be successfully used not only to solve problems of classification and diagnosis but also to conduct a regression analysis. The goal of this paper is to substantiate an opportunity of applying the support vector method to establish relations between controlled coordinates in an interrelated electric drive with a discrete time equalizer. Methods: There have been studied particularities and advantages of the support vector regression, ways of using the support vector method in an interrelated electromechanical system. Results: Mathematical description and analytical framework of the regression algorithm based on the support vector machine have been analyzed; there has been proposed a functional diagram of an electromechanical system with interrelated control based on discrete time equalizers where a control target function is formed by the regression model; an example of the regression analysis programmatically using MatLab SVM Toolbox has been given. It has been stated that the reference target function which is formed as a result of SVR-analysis can be changed by retraining a SVR algorithm and it does not require selection of special regression dependencies. Practical relevance: The research results can be applied in design of interrelated electromechanical systems which target function is formed by means of the regression analysis.
Keywords — Regression Analysis, Target Control Function, Electromechanical System.
References
1. Sheremet O. I., Sadovoy O. V. Method of Support Vectors. Matematychne modeljuvannja. Naukovyj zhurnal. Dniprodzerzhyns'k, DSTU Publ., 2013, no. 1(28), pp. 13-17 (In Ukrainian).
2. Sheremet O. I. Synthesis of Automated Electromechanical Systems by Discrete Time Equalizer. Visnyk nacional'nogo tehnichnogo universytetu "HPI". Zbirnik naukovyh prac'. Ser. Problemy avtomatyzovanogo elektropryvodu. Teorija i praktyka. NTU "KhPI" Publ., Kharkov, 2013, no. 36(1009), pp. 110-111 (In Ukrainian).
3. Vapnik V. N. The Nature of Statistical Learning Theory (Information Science and Statistics). 2nd ed. New York, Springer-Verlag, 2000. 314 p.
4. Burges C. J. C. A Tutorial on Support Vector Machines for Pattern Recognition. Data Mining and Knowledge Discovery, 1998, vol. 2, iss. 2, pp. 121-167.
5. Viyugin V. V. Matematicheskie osnovy teorii mashinnogo obucheniia i prognozirovaniia [Mathematical Foundations of the Machine Learning Theory and Prediction]. Moscow, Institut problem peredachi informatsii im. A. A. Kharkevicha RAN Publ., 2013. 387 p. (In Russian).
6. Smola A. J., Scholkopf B. A Tutorial on Support Vector Regression. NeuroCOLT2, Technical Report Series, 1998, NC2-TR-1998-030. 71 p.
7. Chih-Chung Chang and Chih-Jen Lin. SVMlight. Available at: http://svmlight.joachims.org. (accessed 07 October 2013).
8. LIBSVM. A Library for Support Vector Machines. Available at: http://www.csie.ntu.edu.tw/~cjlin/libsvm. (accessed 07 October 2013).
9. PRTools. A MATLAB Toolbox for Pattern Recognition. Available at: http://prtools.org. (accessed 07 October 2013).
10. Signals, Images, Systems (ISIS) Research Group. Support Vector Machines. Available at: http://www.isis.ecs.soton. ac.uk/resources/svminfo (accessed 07 October 2013).
11. Gunn S. R. Support Vector Machines for Classification and Regression. Technical Report Faculty of Engineering, Science and Mathematics School of Electronics and Computer science. Southampton, University of Southampton, 1998. 54 p.
12. Sadovoy A. V. Sistema optimal'nogo upravlenija precizionnymi jelektroprivodami [The System of Optimal Control by Precision Electric Drives]. Kiev, ISMO Publ., 1996. 298 p. (In Russian).
13. Park J. I., Kim N., Jeong M. K., Shin K. S. Multiphase Support Vector Regression for Function Approximation with Break-Points. Journal of the Operational Research Society, 2013, vol. 64, pp. 775-785.