МЕТОД ПРОГНОЗИРОВАНИЯ ИЗМЕНЕНИЙ ПАРАМЕТРОВ ВРЕМЕННЫХ РЯДОВ В ЦИФРОВЫХ ИНФОРМАЦИОННО-УПРАВЛЯЮЩИХ СИСТЕМАХ
Ю.А. Кропотов1, А.Ю. Проскуряков1, А.А. Белов1 1 Муромский институт (филиал) федерального государственного бюджетного образовательного учреждения высшего образования «Владимирский государственный университет имени Александра Григорьевича и Николая Григорьевича Столетовых», Муром, Россия
Аннотация
Прогнозирование изменений параметров временных рядов является актуальной задачей при мониторинге исследуемых процессов в цифровых информационных системах управления при исследовании проблем увеличения горизонта предсказания и минимизации погрешности прогноза. В работе исследуются алгоритмы прогноза, основанные на моделях, воспроизводящих динамику временного ряда в форме искусственных нейронных сетей. Получены уравнения функционирования и обучения искусственной нейронной сети в матричной форме, получен алгоритм обратной подстановки, с помощью которого можно увеличить глубину прогноза. В работе представлено решение задачи прогноза, состоящее в нахождении оценок предсказания посредством минимизации функции потерь - квадрата нормы отклонения оценок от наблюдаемых значений временного ряда и в определении коэффициентов модели алгоритмом обучения искусственных нейронных сетей итерационным методом обратного распространения ошибок. Применение разработанных алгоритмов позволило построить структурную схему реализации нейросетевого прогнозирования, с помощью которого можно получить достаточно точное представление об изменениях параметров временных рядов в системах мониторинга исследуемых процессов по критериям длительности и минимизированной погрешности получения прогноза.
Ключевые слова: прогнозирование, информационные системы управления, функциональный ряд, нейронная сеть, временной ряд, трехслойный персептрон.
Цитирование: Кропотов, Ю.А. Метод прогнозирования изменений параметров временных рядов в цифровых информационно-управляющих системах / Ю.А. Кропотов, А.Ю. Проскуряков, А.А. Белов // Компьютерная оптика - 2018. - Т. 42, № 6. - С. 1093-1100. -DOI: 10.18287/2412-6179-2018-42-6-1093-1100.
Введение
Задача прогнозирования заключается в нахождении будущих значений параметров временного ряда на интервале, называемом горизонтом прогнозирования [1, 2], в пределах которого обеспечивается необходимая точность решения задачи. Для непрерывных процессов это интервал (/, t+т], который для временного ряда записывается как (п, п + А/]. Здесь t и пТ - текущие моменты времени, при этом Т - период дискретизации. Прогнозирование обычно осуществляется по значениям временного ряда или процесса на конечном, предшествующем, интервале [— Т, /] времени.
Горизонт предсказания является не только одной из важнейших мер качества прогноза, но и используется в качестве критерия степени детерминированности и случайности наблюдаемых явлений, служит характеристикой динамического хаоса (характеристикой хаотических колебаний в динамических системах). В основе этого утверждения лежит зависимость горизонта предсказания не только от используемых алгоритмов, но и от свойств анализируемых временных рядов и процессов. В задачах прогнозирования выбор алгоритма осуществляется исходя из соображений максимизации горизонта прогнозирования и достоверности прогноза. Один из принципов прогнозирования временных рядов или процессов основывается на их представлении непрерывными или дискретными моделями. В работах [1,
2] модель прогнозируемого процесса схематически описывается дифференциальным уравнением, зависящим от неизвестных параметров системы а и факторов /к, отражающих неопределённость модели, где к - номер анализируемого фактора, находится в пределах 1 < к < М и идентифицируется методом наименьших квадратов. При этом в рассмотрение вводятся три процесса: наблюдаемый процесс у, исследуемый процесс х и модельный (прогностический) процесс г. Исследуемый процесс в силу неопределенности факторов /к является (из множества возможных) неизвестным решением дифференциального уравнения
, х, а, /к) = 0.
Пренебрежение указанными факторами позволяет получить дифференциальное уравнение, описывающее модельный процесс г, при соответствующих условиях близкий к исследуемому процессу х. Это уравнение можно записать в виде
г, а) = 0.
Здесь критерием качества прогнозирования может являться среднеквадратическое значение нормы отклонения модельного процесса по факторам /к от исследуемого на интервале предсказания, то есть величина [1]
I . 1 М t+т
I х - г\\ )=—|х(у, /к ) - гоо| ау. (1)
\ ' М к=1 t
Аналогично определяется качество прогнозирования дискретных процессов или временных рядов, представленных дискретными моделями, которые, в частности, могут быть получены из непрерывных моделей путём замены производных конечными разностями. При этом операция интегрирования заменяется операцией суммирования по конечному множеству данных на интервале прогнозирования. Переход к дискретной модели эквивалентен численному решению дифференциального уравнения со свойственными этому решению проблемами чувствительности к возмущающим воздействиям.
На практике построение моделей основывается на данных о соответствующих наблюдаемых процессах: модели могут относиться к классам линейных дискретных и регрессионных систем, стационарных и нестационарных процессов. При решении задач прогнозирования нестационарных процессов может быть применен метод, основанный на декомпозиции процессов по эмпирическим модам (метод БМБ) [5].
Распространенными методами прогнозирования являются параметрические методы регрессионной аппроксимации [4], динамические модели авторегрессии - скользящего среднего [3], методы импульсных функций [6] и искусственных нейронных сетей [9, 10].
1. Нейросетевые методы прогнозирования
Горизонт прогнозирования любой модели зависит от того, насколько достоверно эта модель воспроизводит динамику временного ряда или системы, порождающей наблюдаемый процесс. Поэтому в этой части работы исследуется вопрос о горизонте прогнозирования на основе модели искусственной нейронной сети [7, 8]. Проблема здесь заключается в том, насколько точно динамика процесса может быть представлена весовыми коэффициентами сети. Поэтому обратные связи формируются алгоритмами обучения методом обратного распространения ошибки. Алгоритм функционирования многослойной нейронной сети прямого распространения при прохождении сигналов по направлению от входа к выходу задаются уравнениями в матричной форме. Соответственно, схема нейронной сети представлена на рис. 1.
В соответствии с рис. 1 вектор выходов у-го слоя сети, состоящего из Ру нейронов,
У у = ( ,ь Ул2,•••, У у, Ру )*
(2)
и вектор весовых коэффициентов 1-го нейрона у-го слоя сети
w у ,1
=(
,1, ,2,
у)'.
(3)
Тогда синаптическая сумма 1-го нейрона у-го слоя сети
у = У у _1 + Wу,l,о ,
где Wj,l,о - смещение нейрона.
(4)
Вх.слой 1=1
Внутр.слой 1=2
Вых.слой М
ф) 1-й У 1.1 1-й неир. У2,1 1-й
х(п-1) неир. \\\ \ \\\ ¥> ул *А\\ неир.
2-й нейр. 2-й нейр. 2-й неир.
х(п-1+1)
1-й неир. 1-й нейр. 1-й неир.
х(п-р+1) \ \ \ \ \ \ \ \ \ \ \ \ уЛ У1.Р, ' \ \ \ \ \ \ \ \ \ \ \ \ УгА У2,Р! '
Р1 неир. Р2 неир. Рз неир.
Уз.1
УЗ,2
Уз.1
У1.Р,
Рис. 1. Структура трехслойной нейронной сети обратного распространения ошибки
При этом выходы у-го слоя сети можно представить вектором
Г ф(те'лУу-1 + wjЛ,о) Л
У у =
ф^',2У у-1 + Wj,2,0 )
Ф(< РуУ у-1 + Wj. Ру ■0)
(5)
где ф(-) - функция активации.
Формула (5) является рекуррентным уравнением, позволяющим найти последовательно выходы всех слоёв сети, начиная с первого слоя (у = 1) и заканчивая последним слоем (в рассматриваемом случае у = 3), совпадающим с выходом сети. Вектор у0 - это входная последовательность временного ряда х(п).
При решении задач прогноза выходами сети в пределах одного цикла её функционирования являются результаты предсказания временного ряда или процесса на заданное число шагов вперёд, начиная с 1 и кончая Реых.сл.(число нейронов в выходном слое сети).
Алгоритм обучения нейронной сети методом обратного распространения ошибки также можно представить уравнениями в матричной форме.
Введём матрицу весов у-го слоя сети
^ =(у,Ь «у,2 , • ' ', «у,Ру ) (6)
вектор смещения нейронов у-го слоя
wу,0 = ,1,0 , Wj■,2,о , • , Wj■ Ру ,0 )' , (7)
вектор синаптических сумм
8у =( ,2, •'', ,Ру )* (8)
и векторную функцию активации у-го слоя
ф(8у ) = (ф(Яу,1), ф(Яу,2 ),•••, ф(Яу,Ру ))* . (9)
Задача обучения сети заключается в нахождении весовых коэффициентов у-го слоя сети путем минимизации функционала
-1у (е у) = У 4 = У(у л - У У ) =
1=1 1=1 = (ф(8л0 - уу ) (О - У )
(10)
где еЛ1 = ф(ю^1 у у-1 + ю у01) - у1 или соответственно еу1 = ф(8^1) - уу - вектор ошибок по выходам у-го слоя,
Уу = ((, Ууа,"', У у,р ,) - вектор требуемых выходову-го слоя сети.
Если ввести матрицы Жу = даТ /дуу-1, диагональную матрицу Фу = дфт )/дау в виде
Ф,
дфт (яу)
= —-_dlag
да ,
дфО-д) дф(«,-2) дф(^,р)
Л
дй ■■1 ' дй
■Л2
дз,
,(11)
].Р] у
то алгоритм обучения методом обратного распространения ошибки принимает вид разностного уравнения
е,-1 = WjФjej, (12)
с начальными условиями еу = ф(ау)-уу, при ] =]вых.сл. (номер выходного слоя сети).
Коррекция весовых коэффициентов сети по ошибкам, полученным с помощью уравнения (12), осуществляется градиентным методом по итерационным формулам
^],1 (д +1) = w^■ 1 (д) - ак]1 (у )е]1 у,--1,
w^■o(q +1) = w^■o(д) -аФуеу, (13)
И],1 (у) =
дф( ву) дй„
где 1 _ 1, 2,.,ру,е^ является 1-м компонентом вектора е, ошибки, д - номер итерации, а - шаг настройки весовых коэффициентов, а выбирается в диапазоне 0 < а < 1.
Таким образом, выражения (2) - (13) формируют алгоритм обучения нейронной сети при прогнозировании изменения значений исследуемой функции, реализуемый нейронной сетью, построенной по правилу многослойного персептрона.
Шаги алгоритма сведены в табл. 1.
2. Структура прогнозирования на трехслойном персептроне
Структурная схема, реализующая нейросетевое прогнозирование изменений значений параметров функции с её предварительной вейвлет-обработкой, представлена на рис. 2.
Как видно из рис. 2, система прогнозирования, реализованная на трехслойном персептроне прямого распространения, используется применительно к задаче мониторинга информации в информационно-управляющих системах, которая формирует времен-
ной ряд х(п) отсчетов значений процесса. Аналогично могут быть исследованы непрерывные функции либо временные ряды данных, отображающие информацию изменения параметров различных процессов для решения задач прогнозирования в информационно-управляющих системах.
Табл. 1. Алгоритм обучения многослойного персептрона
Этап обучения Шаги алгоритма
1. Определение выходов (прямой проход) У у = ' ф(^>у-1 + О ^ ф(^т2 Уу-1 + Щ02) фКруУу-1 + ЩР, ), ,у = 1,2,...; У0 = Ст
2. Определение ошибок (обратный проход) е у-1 = уе у, еу =Ф(йу) - У у, 'у = WT'У у-1 + Щ0 = ('у 0, 'у 2'...' у)Т, где му _ (щд,муз,..., Щр) - матрица весовых синаптических коэффициентов.
3. Коррекция синап-тических коэффициентов щ (д+1) = щ (д) - аи ц )елУу-1, Щ0(д+1) = Щ0(д) -афуеу, Ф . = **^ дф(Ч..^)) =' у д'у,1 д'у,2 д'у,ру д'у и ( ) дф( 'у1) и1() = , а - шаг настройки, выбирается в диапазоне 0 < а < 1.
Я
1¥-фильтр, трешол-динг "Г С/и ИНС-трёхслойный персептрон прямого распространения С Восстановление I
1=1
<Г,
¿21 ! \ dm-l
5(п+г)
Рис. 2. Структурная схема нейросетевого прогнозирования изменений значений функции
Входные сигналы в виде непрерывной функции х(/) или дискретной функции в виде временного ряда х(п) подаются на W-фильтр предварительной обработки вейвлет-преобразованием [6]. В W-фильтре формируются аппроксимирующие коэффициенты С¡,, вычисленные по формуле
С, = — С,-!ф,- (2it - п), Р
где ф,(2^ - п) - скейлинг-функция - коэффициент ортонормирования, обеспечивающий единичную норму скейлинг-функции. Детализирующие коэффициенты ,-го уровня вейвлет-разложения вычисляются по формулам:
й1 = — х(п)^^ - п), Р
1 т
= — У С,-1^,- (2it - п). Р1~2
где \\1(2Ч- п) - вейвлет-функция, т - максимальный уровень вейвлет-разложения.
Аппроксимирующие коэффициенты С^ подаются на вход Ж-разрядного регистра сдвига, построенного на элементах задержки с передаточной функцией 2 -1, в котором формируется выборка входных сигналов нейронной сети в виде движущегося окна из N отсчетов, обработанных в "-фильтре. На выходах выходного слоя нейронной сети вычисляются сигналы в виде аппроксимирующих коэффициентов прогноза Ст'г, где г - число периодов прогноза (г = 1, 2,., 10, при Рз = 10).
Многослойный персептрон состоит из входного слоя, внутреннего слоя (где значение у внутреннего слоя принимает значение 0 или 1) и выходного слоя. При у = 1 структурная схема персептрона представляет собой трехслойный персептрон. Увеличение числа слоев, т.е. у > 1, в персептроне приводит к увеличению вычислительных затрат при незначительном уменьшении погрешности [7].
Число нейронов во входном слое персептрона влияет на число анализируемых входных аппроксимирующих коэффициентов временного ряда Ст(п), соответственно на время анализа предыдущих значений отсчетов исследуемой функции, на общую погрешность прогнозирования. В соответствии с [7] погрешность прогноза при г = 10 достигает |5|< 5%, в
случае числа нейронов во входном слое Рвх = 64, внутреннем слое Рвнутр = 10, выходном слое Рвых = 10. При уменьшении числа нейронов во входном слое до
Рвх = 32 погрешность повышается до |8| < (7...10)%.
Полученные аппроксимирующие коэффициенты прогноза Ст*г с учетом необходимых для разных выходов нейронной сети задержек сравниваются с входными значениями Ст, что обеспечивает формирование ошибок предсказаний в*г на всех р выходах нейронов выходного слоя нейронной сети.
При этом формализуем процедуру вычисления нейронной сетью аппроксимирующих коэффициентов прогноза, вычисление ошибок на выходах нейронов каждого из слоев, а также процедуру адаптивной настройки синаптических весовых коэффициентов, для каждого 1-го нейрона в рамках всех слоев нейронной сети.
Аппроксимирующий коэффициент прогноза на один период вычисляется на выходе 1-го нейрона выходного слоя в соответствии с выражением:
Ст*1 = Уз1 = фз (Яю) =-
1
(14)
1 + ехр(-Яю)
На выходе 1-го нейрона выходного (3-го) слоя вычисляется ошибка предсказания на один период - е3*1, по которой вычисляется ошибка на выходе 1-го нейрона предыдущего 2-го слоя нейронной сети -е21.
Ошибки на выходе 1-х нейронов 2-го и 1-го слоев вычисляются в соответствии с выражениями:
64 10
вп W21 • ^21^21 Wзl • 631.
1=1 1=1
Вычисленные таким образом ошибки обратного прохода, в свою очередь, адаптивно перестраивают синаптические коэффициенты связей между нейронами различных слоев. Таким образом, веса 1-х нейронов каждого слоя адаптивно настраиваются в соответствии с выражениями:
й ф3( Яю),
w31 = w31 +а е31-
= w2l +а е21
w11 = w11 +а е11
йяи Л ф2(ЯШ) йя10 Л ф1 (Я64)
йя 64
-С
"У21
У11
Минимизация ошибки обеспечивается выше рассмотренной итерационной процедурой обучения нейронной сети, в ходе которой осуществляется настройка весовых или синаптических коэффициентов сети. Таким образом, задача прогнозирования заключается в оценивании будущих значений процесса по имеющимся данным Ст в текущий момент, в настройке значений коэффициентов нейронной сети по критерию минимальной величины ошибки предсказания, в оценивании управляемого объекта, основанных на сравнении выходных сигналов управляемого объекта Ст'г и его модели, в качестве которой используется нейронная сеть.
Детализирующие коэффициенты й, вычисленные до уровня т (й\, й2, ..., йт), после обработки алгоритмом сглаживания поступают на блоки восстановления выходного временного ряда прогноза.
Алгоритм сглаживания детализирующих коэффициентов по критерию адаптивного штрафного порога имеет вид:
й* =
й, й1 >Р0; 0, й <Р0,
где р0 = Ьл/ст2 , ст2 - дисперсия шумовых составляющих во входном сигнале х(п), Ь - коэффициент пропорциональности, Ь = V21п N , N - число периодов анализа.
Выходные сигналы с выходов нейронной сети в виде выходных аппроксимирующих коэффициентов Ст'г (где г - номер выхода нейронной сети в соответствии с числом периодов прогноза ге[1, 10]) также поступают на г-й блок восстановления выходного временного ряда прогноза. На выходе г-х блоков восстановления формируются выходные сигналы прогноза в виде временного ряда я(п+г) [7]:
s(n + r) = — Р
X x(n)Vi(2í - n)-
+X X C-1 • V (2'' t - n) + X Cm*
n i=2 n
(15)
где r - число периодов времени прогноза, время про-
гноза определяется выражением t4
= rT.
Также в структурной схеме на рис. 2 представлен блок вейвлет-обработки временного ряда x(n) и блок восстановления выходного сигнала s(n) с пониженной погрешностью в соответствии с выражением восстановления:
s(n) = — Р
X x(n)Vi(2t - n)-
+XXC-1 -V i (2't - n) +XCm
n i= 2 n
(16)
В полученных выражениях (15) и (16), благодаря предварительной вейвлет-обработке в "-фильтре, существенно ослабляются флуктуации входного сиг-
нала x(n) за счет формирования аппроксимирующих коэффициентов m-го уровня Cm и подавляются компоненты шума, имеющие место во входном сигнале, путем обработки детализирующих коэффициентов алгоритмом сглаживания, что заметно снижает погрешность представления информации.
Таким образом, полученный очищенный от помех обработанный выходной временной ряд в реальном времени и обработанный выходной временной ряд прогноза представляют информацию в устройствах отображения и в системах принятия решений с более высокой точностью. Разработанный алгоритм нейросетевого прогнозирования изменения параметров временного ряда может быть реализован в различных программных средах, таких как MatLab Neural Network Toolbox, PyBrain и NeurophStudio.
Ошибки прогноза зависят от того, насколько размеры входного слоя ИНС соответствуют характерной величине интервала временного ряда, по которому можно восстановить его динамику, что подтверждается графиками на рис. 3 и рис. 4 [2].
к
iс S
«с Я
«S
u а
St Q)
11 У
и
I
0,20 0,15
0,10
0,05
0
-0,05 -0,10 -0,15 -0,20 -0,25 -0,30
ф) N \ Параметры сети: \ 64 сенсорных k \ нейрона \ \ \ \ Исходный ; \ Iy^ сигнал /
v\ \ \ Прогноз \ - при г =10 ^ ^^ Прогноз \ . при г =100 \ ,- '"•..... ¡J
Ä+ a Si
0 a,
8k ж 5
S3
1 ®
¡3 S О О У .
в-
«з-s s 6g-.
0,5 0,4 0,3 0,2 0,1
A x(n)
Параметры сети: 64 сенсорных нейрона
0
Отклонение прогноза при г =100\
Отклонение прогноза /
при г =10 /
-L^XJi___J
0,1 -
0,2
0
б)
о
20 40 60 80 п Значения дискретного времени в виде пТ
20 40 60 80 п а) Значения дискретного времени в виде пТ
Рис. 3. Результаты отклонения прогноза от исследуемого процесса при размере сенсорного слоя 64 нейрона
(Т - период дискретизации)
0,04
2
£ §
S w
со К
аЕ у а
0 a
-0,
f и
1
-о,
. Параметры сети: N. 200 сенсорных i \ нейронов \\ \ \ Исходный V сигнал
Прогноз ^Ч - при г =10 \ \ \\ - Чч- \ Прогноз ^^s. при г =100 Ч-;
о S «+
0,03
S a
а ж a S!
0,02
8s
М ? о
&S
Й ® <и в
к а о & '
«З-к a
Дх(п) Параметры сети:
200 сенсорных нейронов
Отклонение прогноза при г =100\
Отклонение прогноза при г =10
0,01
/ V \
0,01
А /
■■ : УГС •-„-J \
I ч
!
а)
20 40 60 80 п Значения дискретного времени в виде пТ
Ой1-0,02
б)
о
20
40
60
80
Значения дискретного времени в виде пТ
Рис. 4. Результаты отклонения прогноза от исследуемого процесса при размере сенсорного слоя 200 нейронов
Из рис. 3 и рис. 4 видно, что увеличение числа нейронов в первом (сенсорном) слое способствует увеличению горизонта и уменьшению отклонения прогноза от исследуемого процесса. Если для сети
с 64 сенсорными нейронами (110 нейронов внутренний слой и 10 нейронов выходной слой) горизонт предсказания может быть принят равным в пределах 10Т - 20Т (рис. 3), то в случае 200 сен-
и
m
n
m
сорных нейронов (110 нейронов внутренний слой и 10 нейронов выходной слой) (рис. 4) горизонт увеличивается до 100 Т.
Выводы
Существующие методы прогнозирования временных рядов и непрерывных процессов характеризуются большим разнообразием, что, в свою очередь, обусловлено большим разнообразием задач. Особый интерес в плане прогнозирования связан с представлением временных рядов моделями авторегрессии и нейронными сетями. В работе показано, что в рамках модели авторегрессии прогноз на несколько шагов вперед зависит от коэффициентов модели нелинейным образом. При этом задачу прогноза, состоящую в нахождении коэффициентов модели посредством минимизации целевой функции, можно решить итерационным методом. Поэтому интерес представляют сети, реализующие функцию рекуррентного минимизирующего отклонения оценок от наблюдаемых значений временного ряда. В данной работе рассмотрены искусственные нейронные сети, в частности, рассмотрены нейронные сети на персептроне с обратным распространением ошибки. В работе получены уравнения функционирования и обучения искусственной нейронной сети в матричной форме, получен алгоритм обратной подстановки, с помощью которого можно увеличить глубину прогноза. Результат моделирования и применения разработанного алгоритма заключается в повышении параметров результата прогнозирования изменений значений исследуемых функций по показателям длительности и погрешности получения прогноза, а также быстродействия, адаптивности системы при изменяющихся условиях. Дополнительным эффектом является также возможность гибкого изменения архитектуры нейронной сети в случае изменения требований на длительность прогноза.
Предложенная структурная схема реализации нейросетевого прогнозирования изменений параметров временных рядов с предварительной вейвлет-обработкой обеспечивает возможность достаточно точного мониторинга исследуемых процессов в информационно-управляющих системах.
Литература
1. Кравцов, Ю.А. Случайность, детерминированность, предсказуемость / Ю.Н. Кравцов // Успехи физических наук. - 1989. - Т. 158, № 1. - С. 93-122. - DOI: 10.3367/UFNr.0158.198905c.0093.
2. Ермолаев, В.А. О методах прогнозирования временных рядов и непрерывных процессов / В.А. Ермолаев // Радиотехнические и телекоммуникационные системы. -2016. - Вып. 2. - С. 52-63.
3. Бокс, Дж. Анализ временных рядов. Прогноз и управление / Дж. Бокс, Г. Дженкинс. - М.: Мир, 1974. - 408 с.
4. Маевский, В.В. Робастность регрессионного прогнозирования при наличии функциональных искажений модели / В.В. Маевский, Ю.С. Харин // Автоматика и телемеханика. - 2012. - Вып. 11. - С. 118-137.
5. Huang, N.E. The empirical mode decomposition and the Hilbert spectrum for nonlinear and non-stationary time series analysis / N.E. Huang, Z. Shen, S.R. Long, M.C. Wu, H.H. Shin, O. Zheng, N.C. Yen, C.C. Tung, H.H. Liu // Royal Society of London Proceedings Series A. - 1998. - Vol. 454, Issue 1971. -P. 903-998. - DOI: 10.1098/rspa.1998.0193.
6. Дремин, И.М. Вейвлеты и их использование / И.М. Дремин, О.В. Иванов, В.А. Нечитайло // Успехи физических наук. - 2001. - Т. 17, № 5. - C. 465-501. -DOI: 10.3367/UFNr.0171.200105a.0465.
7. Проскуряков, А.Ю. Алгоритмы автоматизированных систем экологического мониторинга промышленных производств: монография. / А.Ю. Проскуряков, А.А. Белов, Ю.А. Кропотов. - Москва-Берлин: Директ-Медиа, 2015. -121 с. - ISBN: 978-5-4475-5245-9.
8. Пат. 2600099 Российская Федерация G 06 Q 10/04, G 06 N 3/02. Способ нейросетевого прогнозирования изменения значений функции c её предварительной вейвлет-обработкой и устройство его осуществления / Белов А. А., Ермолаев В.А., Кропотов Ю.А., Проскуряков А.Ю.; 2015110284/08, заявл. 23.03.2015, опубл. 20.10.2016, Бюл. № 29.
9. Allende, H. Artificial neural networks in time series forecasting: a comparative analysis / H. Allende, C. Moraga, R. Salas // Kybernetika. - 2002. - Vol. 38, No 6. - P. 685-707.
10. Zhang, G. Forecasting with artificial neural networks: The state of the art / G. Zhang, B.E. Patuwo, M.Y. Hu // International Journal of Forecasting. - 1998. - Vol. 14, Issue 1. -P. 35-62. - DOI: 10.1016/S0169-2070(97)00044-7.
Сведения об авторах
Кропотов Юрий Анатольевич - доктор технических наук, профессор, заведующий кафедрой электроники и вычислительной техники». Муромский институт (филиал) Владимирского государственного университета имени Александра Григорьевича и Николая Григорьевич Столетовых. Область научных интересов: телекоммуникационные и информационно-управляющие системы. E-mail: [email protected] .
Проскуряков Александр Юрьевич - кандидат технических наук, доцент кафедры электроники и вычислительной техники. Муромский институт (филиал) Владимирского государственного университета имени Александра Григорьевича и Николая Григорьевич Столетовых. Область научных интересов: прогнозирование данных, нейронные сети, обработка и предсказание данных в экономических системах. E-mail: [email protected] .
Белов Алексей Анатольевич - кандидат технических наук, доцент, доцент кафедры электроники и вычислительной техники. Муромский институт (филиал) Владимирского государственного университета имени Алек-
сандра Григорьевича и Николая Григорьевич Столетовых. Область научных интересов: телекоммуникационные системы мониторинга, обработка данных, методы вейвлет-преобразования. E-mail: [email protected] .
ГРНТИ: 50.43.17
Поступила в редакцию 21 декабря 2017 г. Окончательный вариант - 26 июля 2018 г.
METHOD FOR FORECASTING CHANGES IN TIME SERIES PARAMETERS IN DIGITAL INFORMATION MANAGEMENT SYSTEMS
Y.A. Kropotov1, A.Y. Proskuryakov1, A.A. Belov1
1 Murom Institute (Branch) of Vladimir State University, Murom, Russia
Abstract
Predicting changes in the parameters of time series is of high significance when monitoring the research processes in digital information management systems. This task also arises when researching the issues of increasing the prediction horizon and minimizing the forecast error. In this paper, we investigate prediction algorithms based on models that reproduce the dynamics of a time series in the form of artificial neural networks. We also consider the development of algorithms for control, functioning and training of an artificial neural network in a matrix form and obtaining an algorithm for the return substitution, with the help of which it is possible to obtain an increase in the depth of the forecast. The paper presents the solution of the prediction problem consisting in finding prediction estimates by minimizing the loss function - the square of the norm of estimate deviation from the observed values of the time series and in determining the model coefficients by using an artificial neural networks learning algorithm based on the iterative method of back-propagating errors. Application of the developed algorithms has allowed us to build a structural scheme for implementing neural network forecasting, with the help of which it is possible to obtain a fairly accurate representation of changes in the parameters of time series in the process monitoring systems in terms of the runtime and the minimized error of the forecasting.
Keywords: forecasting, information management systems, functional series, neural network, time series, three-layer perceptron.
Citation: Kropotov YA, Proskuryakov AY, Belov AA. Method for forecasting changes in time series parameters in digital information management systems. Computer Optics 2018; 42(6): 10931100. DOI: 10.18287/2412-6179-2018-42-6-1093-1100.
References
[1] Kravcov YuA. Randomness, determinateness, and predictability. Sov Phys Usp 1989; 32(5): 434-449. DOI: 10.1070/PU1989v032n05ABEH002718.
[2] Ermolaev VA. Predictive methods of time series and continuous processes [In Russian]. Radio and telecommunication systems 2016; 2: 52-63.
[3] Box G, Jenkins G. Time series analysis: Forecasting and control. San Francisco: Holden-Day; 1970.
[4] Maevskii VV, Kharin YuS. Robust regressive forecasting under functional distortions in a model. Automation and Remote Control 2002; 63(11): 1803-1820.
[5] Huang NE, Shen Z, Long SR, Wu MC, Shin HH, Zheng Q, Yen NC, Tung CC, Liu HH. The empirical mode decomposition and the Hilbert spectrum for nonlinear and non-stationary time series analysis. Proc R Soc Lond A 1998; 454(1971): 903-998. DOI: 10.1098/rspa.1998.0193.
[6] Dremin IM, Ivanov OV, Nechitailo VA. Wavelets and their uses. Phys Usp 2001; 44(5): 447-478. DOI: 10.1070/PU2001v044n05ABEH000918.
[7] Proskuryakov AYu, Belov AA, Kropotov YA. Algorithms of automated systems of ecological monitoring of industrial productions: monogr [In Russian]. Moscow-Berlin: "Direct-Media" Publisher; 2015.
[8] Belov AA, Ermolaev VA, Kropotov YA, Proskuryakov AY. Method of neural network forecasting of change of values of function with its complementary wavelet processing and device for its implementation [In Russian]. Pat RF of Invent N 2600099 of October 20, 2016, Russian Bull of Inventions N29, 2016.
[9] Allende H, Moraga C, Salas R. Artificial neural networks in time series forecasting: a comparative analysis. Kyber-netika 2002; 38(6): 685-707.
[10] Zhang G, Patuwo BE, Hu MY. Forecasting with artificial neural networks: The state of the art. International Journal of Forecasting 1998; 14(1): 35-62. DOI: 10.1016/S0169-2070(97)00044-7.
Author's information
Yuriy Anatolievich Kropotov - Dr. of Engineering Sciences, Full Professor. Head of Electronics and Computer Science department. Murom Institute (Branch) of Vladimir State University named after Alexander and Nickolay Stoletovs. Field of research: telecommunication information and control systems. E-mail: [email protected] .
Alexander Yurievich Proskuryakov - Ph.D. of Engineering Sciences, associate professor of Electronics and Computer Science department. Murom Institute (Branch) of Vladimir State University named after Alexander and Nickolay Stoletovs. Field of research: data prediction, neural networks, data processing and prediction in economic systems. Email: [email protected] .
Aleksey Anatolievich Belov - Ph.D. of Engineering Sciences, associate professor of Electronics and Computer Science department. Murom Institute (Branch) of Vladimir State University named after Alexander and Nickolay Stoletovs. Field of research: telecommunication system monitoring, data processing, wavelet transform techniques. E-mail: [email protected] .
Received December 21, 2017. The final version - July 26, 2018.