Научная статья на тему 'НЕЙРОСЕТЕВАЯ ОБРАБОТКА СИГНАЛОВ: ЗАДАЧИ БЕЗ «ГЛУБОКОГО ОБУЧЕНИЯ»'

НЕЙРОСЕТЕВАЯ ОБРАБОТКА СИГНАЛОВ: ЗАДАЧИ БЕЗ «ГЛУБОКОГО ОБУЧЕНИЯ» Текст научной статьи по специальности «Электротехника, электронная техника, информационные технологии»

CC BY
16
3
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
искусственные нейронные сети / прямое распространение / обработка сигналов в электротехнике / аппроксимация / погрешность в определении параметров / переходные процессы / artificial neural networks / direct propagation / signal processing in electrical engineering / approximation / error in determining parameters / transients

Аннотация научной статьи по электротехнике, электронной технике, информационным технологиям, автор научной работы — Славутский Леонид Анатольевич, Славутская Елена Владимировна

Цель исследования – для обработки электротехнических сигналов проанализировать некоторые возможности использования аппарата искусственных нейронных сетей. Методы. Рассматривается применение для этих целей многослойного персептрона, как простейшей нейросети прямого распространения. Его отличие, как основы нейросетевых алгоритмов, заключается в том, что при анализе динамических процессов обработка сигналов должна проводиться в скользящем временном окне. Результаты. Показано, что нейросетевая обработка позволяет с высокой точностью аппроксимировать форму сигнала и определять его параметры в режиме реального времени. На примере периодических сигналов и переходных процессов в электрических цепях делаются оценки точности и анализируются особенности нейросетевой обработки. Обсуждаются необходимые размеры обучающей выборки сигналов и уровень ошибок, возникающих при тестировании нейронной сети. Приводятся оценки необходимой частоты дискретизации сигнала, длительности «скользящего окна», диапазона варьирования параметров сигнала при создании обучающей выборки. Выводы. Показано, что предлагаемый подход не требует «глубокого обучения» нейронных сетей со сложной архитектурой, дает возможность создавать обучающую выборку сигналов на основе простых аналитических формул, контролировать качество работы нейросетевого алгоритма на промежуточных этапах вычислений.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по электротехнике, электронной технике, информационным технологиям , автор научной работы — Славутский Леонид Анатольевич, Славутская Елена Владимировна

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

NEURAL NETWORK SIGNAL PROCESSING: THE TASKS WITHOUT "DEEP LEARNING"

The purpose of the study is to evaluate the possibility of using artificial neural networks for electrical signals processing. Methods. The application of a multilayer perceptron for these purposes as the simplest neural feed forward network is considered. Its difference as the basis of neural network algorithms is that when analyzing dynamic processes, signal processing should be carried out in a “sliding time window”. Results. It is shown that neural network processing makes it possible to approximate the shape of the signal with high accuracy and determine its parameters in real time. Using the example of periodic signals and transients in electrical circuits, accuracy assessments are made and the features of neural network processing are analyzed. The necessary sizes of the training sample of signals and the level of errors that occur when testing a neural network are discussed. Estimates of the required signal sampling frequency, the "sliding window" duration and the variation range of signal parameters when creating a training sample are given. Conclusions. It is shown that the proposed approach does not require "deep learning" of neural networks with complex architecture. It enables to create a signals training sample based on simple analytical formulas and to control the neural network algorithm quality at intermediate stages of calculations.

Текст научной работы на тему «НЕЙРОСЕТЕВАЯ ОБРАБОТКА СИГНАЛОВ: ЗАДАЧИ БЕЗ «ГЛУБОКОГО ОБУЧЕНИЯ»»

DOI: 10.47026/1810-1909-2023-2-151-160

УДК 621.316.91 ББК 31.247

Л.А. СЛАВУТСКИЙ, Е В. СЛАВУТСКАЯ

НЕЙРОСЕТЕВАЯ ОБРАБОТКА СИГНАЛОВ: ЗАДАЧИ БЕЗ «ГЛУБОКОГО ОБУЧЕНИЯ»

Ключевые слова: искусственные нейронные сети, прямое распространение, обработка сигналов в электротехнике, аппроксимация, погрешность в определении параметров, переходные процессы.

Цель исследования - для обработки электротехнических сигналов проанализировать некоторые возможности использования аппарата искусственных нейронных сетей. Методы. Рассматривается применение для этих целей многослойного персептрона, как простейшей нейросети прямого распространения. Его отличие, как основы нейросетевых алгоритмов, заключается в том, что при анализе динамических процессов обработка сигналов должна проводиться в скользящем временном окне. Результаты. Показано, что нейросетевая обработка позволяет с высокой точностью аппроксимировать форму сигнала и определять его параметры в режиме реального времени. На примере периодических сигналов и переходных процессов в электрических цепях делаются оценки точности и анализируются особенности нейросетевой обработки. Обсуждаются необходимые размеры обучающей выборки сигналов и уровень ошибок, возникающих при тестировании нейронной сети. Приводятся оценки необходимой частоты дискретизации сигнала, длительности «скользящего окна», диапазона варьирования параметров сигнала при создании обучающей выборки. Выводы. Показано, что предлагаемый подход не требует «глубокого обучения» нейронных сетей со сложной архитектурой, дает возможность создавать обучающую выборку сигналов на основе простых аналитических формул, контролировать качество работы нейросетевого алгоритма на промежуточных этапах вычислений.

Искусственные нейронные сети (ИНС) [2, 4, 8], методы машинного обучения и искусственного интеллекта (ИИ) [18, 24, 26, 32] всё более широко применяются для анализа случайных процессов и сигналов [14, 34], в частности в интеллектуальной энергетике [16, 17, 21-23]. Многослойный персептрон (multilayer perception, MLP) является основой нейросетевых алгоритмов и при обучении «с учителем» представляет собой простейшую нейронную сеть прямого распространения [3, 6, 7]. Последние десятилетия структура используемых ИНС все более усложняется [13, 29, 31], применяются сверточные [19, 30], рекуррентные [12] сети и т.д. Сложные ИНС с разветвленной и даже адаптивной структурой, меняющейся в процессе длительного обучения, используются в режиме «глубокого обучения» (deep learning, DL) [11, 25, 36]. С одной стороны, глубокое обучение требует очень большого набора экспериментальных данных и значительного времени, не гарантируя отсутствие ошибок при использовании нейросетевого алгоритма. С другой стороны, ИНС в виде многослойного персептрона с высокой точностью решает регрессионные задачи (аппроксимации), и ее обучение может проводиться на обучающей выборке сигналов, заданных простейшими аналитическими функциями [1, 9, 35]. При этом относительно небольшое число нейронов в ИНС позволяет занести обученную сеть в микропроцессорное оборудование и проводить обработку в реальном времени [5, 10]. Оценки возможных

погрешностей ИНС-алгоритма могут быть проведены на этапе обучения нейронной сети [33] и контролироваться [1, 27].

Цель настоящей работы - на примере периодических сигналов промышленной частоты и переходных процессов в электрических цепях провести оценки точности и проанализировать особенности нейросетевой обработки при помощи MLP.

Методы исследования. Структура нейронной сети в абсолютном большинстве случаев подбирается эмпирически. Качество обучения ИНС определяет, насколько её структура соответствует решаемой задаче. На рис. 1 показан пример простейшей структуры ИНС для обработки сигналов и гистограмма ошибок, полученных при её обучении.

Среднеквадратичная ошибка

Рис. 1. Структура ИНС и пример гистограммы ошибок при ее обучении

Здесь пять входных нейронов соответствуют отсчётам квазигармонического сигнала с такой случайной модуляцией фазы, чтобы полуширина спектра сигнала с несущей частотой 50 Гц составляла 5 Гц, дискретизация - 250 Гц (5 точек на период).

Целевой функцией на выходе ИНС является частота сигнала /. Гистограмма распределения ошибок при обучении ИНС позволяет оценить как средние, так и максимальные ошибки. В данном случае, если средняя ошибка составляет порядка полупроцента, максимальная ошибка - 3%. Следует отметить, что это ошибки от диапазона варьирования частоты. То есть максимальная ошибка составляет в данном случае 3% от 10 Гц. При низкой частоте оцифровки возможность оценки несущей частоты сигнала за один период с такой точностью заведомо превышает возможности традиционного спектрального анализа. В этой задаче ещё одной важной особенностью использования простейшего персептрона является то, что количество связей между нейронами в данном случае минимально [11]. Для адекватного обучения нейронной сети это число должно быть значительно меньше размеров выборки сигналов при обучении. Гистограмма рис. 1 получена при (малой) обучающей выборке 100 записей сигнала со случайной фазой.

То есть пример демонстрирует, что при адекватном выборе структуры нейросети точность определения переменной частоты квазигармонического сигнала может составлять доли Гц при низкой частоте дискретизации сигнала. Соответствующие возможности были продемонстрированы на экспериментальных записях при обработке ультразвуковых сигналов [15].

Соотношение между средними и максимальными ошибками может играть решающую роль при использовании обученной ИНС. Даже правильный выбор структуры нейросети, высокое качество её обучения не гарантируют точности, если тестирующая выборка отличается от обучающей в статистическом смысле. На рис. 2 приведён характерный пример из [20].

Training si't size (N,«nits)

Рис. 2. Зависимость процента нераспознанных обученной ИНС входных сигналов в режиме «если то» на статистически однородной (сплошная) и неоднородной тестирующей выборке в зависимости от количества циклов (эпох) обучения [20]

Здесь при моделировании механизмов срабатывания релейной защиты использован персептрон с двумя скрытыми слоями. Качество обучения на статистически однородной выборке входных сигналов получено высокое, среднеквадратичные ошибки не превышали 104. Однако при использовании статистически однородной и статистически неоднородной выборки при тестировании уже обученной ИНС (см. рис. 2) в гистограммах проявляются две характерные особенности:

1. Ошибки нейросетевого алгоритма при статистически неоднородной тестирующей выборке в разы превышают погрешности при однородной тестирующей выборке.

2. Большое количество циклов (эпох) обучения не приводит к принципиальному увеличению точности нейросетевого алгоритма. В данном случае это не связано с так называемым «переобучением» ИНС. Ошибки в обучающей выборке при этом монотонно уменьшались с длительностью обучения.

Пример, описанный выше, затрагивает основную проблему так называемого «глубокого обучения» ИНС. Глубокое обучение не исключает значительных ошибок при использовании ИНС в режиме «если то» (if then) [2, 4]. В связи

с этим достоинством простых нейросетевых алгоритмов является возможность проверки их функционирования на каждом этапе вычислений [1, 28].

Результаты исследования. Для оценки возможности использования многослойного персептрона для анализа переходных процессов используем сигнал в виде функции отклика колебательного звена:

где T и k - постоянная времени и коэффициент усиления; в - коэффициент демпфирования; ф - момент начала дискретизации сигнала (временного окна). Эти четыре параметра при их случайном варьировании в определённых диапазонах позволяют создавать обучающую выборку во временном окне для дальнейшего использования многослойного персептрона режиме «если то».

Эмпирически подобранная структура MLP показана на рис. 3.

Дискретный сигнал со случайными параметрами в формуле (1) подаётся на вход ИНС в диапазоне 11, ..., ¿„. На выходе ИНС - случайные параметры сигнала. Кроме того, размер временного окна, частота дискретизации, начальная фаза сигнала ф варьировались в процессе обучения и тестирования.

Обнаружено, что качество обучения ИНС сильно отличается в зависимости от того, какой из параметров сигнала задаётся в виде целевой функции. Если для коэффициента усиления к и постоянной времени Т ошибки составляют единицы процентов, то для коэффициента демпфирования в соответствующие погрешности достигают 30-35%. При этом точность для каждого из выходных параметров ИНС зависит от диапазона варьирования остальных параметров на входе сети. Для иллюстрации на рис. 4 приведены диаграммы рассеяния на выходе ИНС для коэффициента демпфирования в.

На верхнем графике показана диаграмма рассеяния в при варьировании всех трёх параметров в процессе обучения, на втором графике варьируется только сама величина в. Во втором случае точность вычислений ИНС вырастает

S(t) = k 1 - e

Т, к, в

Рис. 3. Структура многослойного персептрона

очень значительно: погрешности уменьшаются в десятки раз, как средние, так и максимальные. Таким образом, вместо одного персептрона можно использовать несколько заранее обученных ИНС. Сначала при помощи ИНС определяется, например, коэффициент усиления к, для которого погрешность обучения гораздо ниже, затем - постоянная времени Т и только после этого - коэффициент демпфирования в. Соответствующий алгоритм использования персептро-нов апробирован в [1]. Показано, что результаты позволяют существенно увеличить точность определения параметров сигнала.

б

Рис. 4. Диаграммы рассеяния для е на выходе ИНС

На рис. 5 показан пример восстановления параметров колебательного звена. Использована ИНС рис. 3 при временном окне для обучения, составляющем треть от среднего значения постоянной времени Т. Обучающая выборка сигналов формировалась при помощи аналитической формулы (1) со случайным варьированием всех четырех параметров. Кроме того, на сигналы накладывался гауссов шум с дисперсией 10% от среднего коэффициента усиления к.

После этого ИНС тестировалась в режиме «если то»: на вход сети подавался произвольный зашумленный сигнал (сплошная кривая на рис. 5), параметры которого необходимо определить. Полученные на выходе ИНС параметры к, Т использовались для вычисления функции отклика соответствующего апериодического звена (пунктир). Сравнение зависимостей подтверждает точность определения к, Т в единицы процентов.

Рис. 5. Пример восстановления параметров динамического звена

Выводы. Таким образом, иа примере простейших электротехнических сигналов показаны возможности их обработки на основе нейросетевых алгоритмов. Предлагается применение многослойных персептронов, особенностью которых является возможность аппроксимировать сигналы с высокой точностью. Если сигнал может быть описан достаточно простыми аналитическими формулами, это позволяет рассчитать его параметры за короткий временных отрезок. Пер-септрон может использоваться в скользящем временном окне, и его обучение может проводиться на достаточно ограниченной выборке без «глубокого обучения». Достоинствами предлагаемого подхода являются возможность обработки сигналов в реальном времени и исключение ошибок за счёт проверки результатов применения нейронных сетей на разных этапах вычислений.

Литература

1. АндреевО. Н., СлавутскийА.Л., АлексеевВ.В. Структурный анализ электротехнических сигналов при рекуррентном использовании многослойного персептрона // Электротехника. 2022. № 8. С. 41-44.

2. Круглое В.В., Борисов В.В. Искусственные нейронные сети. Теория и практика. М.: Горячая линия-Телеком, 2001. 382 с.

3. Минский М., Пейперт С. Персептроны. М.: Мир, 1971. 261 с.

4. Нейроинформатика / А.Н. Горбань, В.Л. Дунин-Барковский, А.Н. Кирдин и др. Новосибирск: Наука, 1998. 296 с.

5. Нейросетевой алгоритм восстановления в реальном времени сигнала промышленной частоты при нелинейных искажениях / А.Л. Славутский, Л.А. Славутский, В.В. Алексеев и др. // Электротехника. 2021. № 8. С. 21-25.

6. Петров А.П. О возможностях перцептрона // Известия АН СССР. Техническая кибернетика. 1964. № 6. С. 25-57.

7. Славутская Е.В., Славутский Л.А. О выборе структуры искусственных нейросетей и алгоритмов анализа психодиагностических данных // Казанский педагогический журнал. 2020. № 5(142). С. 202-211.

8. Хайкин С. Нейронные сети: полный курс. 2-е изд. М.: Вильяме, 2006. 1104 с.

9. Andreev O.N., Slavutskiy A.L., Slavutskii L.A. Neural network in a sliding window for power grids signals structural analysis. In: IOP Conference Series: Earth and Environmental Science, 2022, vol. 990. DOI: 10.1088/1755-1315/990/1/012054.

10. Antonov V.I., Naumov V.A., Fomin A.I. et al. Adaptive structural analysis of input signals of digital and relay protection and automation. Russian Electrical Engineering, 2015, vol. 86, pp. 391— 397. DOI: 10.3103/S1068371215070032.

11. Basodi S., Zhang H., Pan Y. Gradient amplification: An efficient way to train deep neural networks. Big Data Mining and Analytics, 2020, vol. 3(3), pp. 196-207.

12. Billings S.A. Nonlinear system identification: NARMAX methods in the time, frequency, and spatio-temporal domains. John Wiley & Sons, 2013, 555 p. DOI 10.1002/9781118535561.

13. Bhattacharya B., Sinha A. Intelligent Fault Analysis in Electrical Power Grids. In: IEEE 29th International Conference on Tools with Artificial Intelligence (ICTAI). Boston, 2017, pp. 985-990. DOI: 10.1109/ICTAI.2017.00151.

14. Burton B., Harley R.G. Reducing the computational demands of continually online-trained artificial neural networks for system identification and control of fast processes. IEEE Transactions on Industry Applications, 1998, vol. 34(3), pp. 589-596.

15. Bychkov A., Slavutskii L., Slavutskaya E. Neural Network for Pulsed Ultrasonic Vibration Control of Electrical Equipment. International Ural Conference on Electrical Power Engineering (UralCon), 2020, pp. 24-28. DOI: 10.1109/UralCon49858.2020.9216248.

16. Coury D. V., OleskoviczM, Aggarwal R.K. An ANN routine for fault detection, classification and location in transmission lines. Electrical Power Components and Systems, 2002, no. 30, pp. 1137-1149.

17. Dharmendra K., Moushmi K., Zadgaonkar A.S. Analysis of generated harmonics due to transformer load on power system using artificial neural network. International journal of electrical engineering, 2013, vol. 4(1), pp. 81-90.

18. Grossberg S. A Path Toward Explainable AI and Autonomous Adaptive Intelligence: Deep Learning, Adaptive Resonance, and Models of Perception, Emotion, and Action. Front. Neurorobot, 2020, vol. 14. DOI: https://doi.org/10.3389/fnbot.2020.00036.

19. Ince T., Kiranyaz S., Eren L., Askar M., Gabbou M. Real-Time Motor Fault Detection by 1-D Convolutional Neural Networks. IEEE Transactions on Industrial Electronics, 2016, vol. 63, vol. 11, pp. 7067-7075. DOI: 10.1109/TIE.2016.2582729.

20. Ivanov S.O., Nikandrov M., Lariukhin A. Neuro Algorithm Accuracy Evaluation for The Anomalies Detecting in Overcurrent Protection Operation. International Ural Conference on Electrical Power Engineering (UralCon), 2021, pp. 116-120. DOI: 10.1109/UralCon52005.2021.9559614.

21. He Z., Lin S., Deng Y., LiX., Qian Q. A rough membership neural network approach for fault classification in transmission lines. International Journal of Electrical Power and Energy Systems, 2014, vol. 61, pp. 429-439.

22. Jain A., Thoke A.S., Patel R.N. Fault classification of double circuit transmission line using artificial neural network. International Journal of Electrical Systems Science and Engineering, 2008, vol. 1, pp. 230-235.

23. Jamil M., Kalam A., Ansari A.Q., Rizwan M. Generalized neural network and wavelet transform based approach for fault location estimation of a transmission line. Applied Soft Computing, 2014, vol. 19, pp. 322-332.

24. Keerthipala W.L., Low Tah Chong, Tham Chong Leong. Artificial neural network model for analysis of power system harmonics. IEEE International Conference on Neural Networks, 1995, vol. 2, pp. 905-910.

25. Kozma R., Ilin R., Siegelmann H. T. Evolution of Abstraction Across Layers in Deep Learning Neural Networks. Computer Science, 2018, vol. 144, pp. 203-213. DOI: 10.1016/j.procs.2018.10.520.

26. Kulikov A.L., Loskutov A.A., Mitrovic M. Improvement of the technical excellence of multiparameter relay protection by combining the signals of the measuring fault detectors using artificial intelligence methods. In: International Scientific and Technical Conference Smart Energy Systems (SES-2019), 2019, vol. 124. DOI: 10.1051/e3sconf/201912401039.

27. Leroux S., Verbelen T., Simoens P. et al. Iterative neural networks for adaptive inference on resource-constrained devices. Neural Comput & Applic, 2022, vol. 34, pp. 10321-10336. DOI: 10.1007/s00521-022-06910-5.

28. Leroux S., Bohez S., Verbelen T. et al. Resource-constrained classification using a cascade of neural network layers. International Joint Conference on Neural Networks (IJCNN), 2015, pp. 1-7, DOI: 10.1109/IJCNN.2015.7280601.

29. Niekerk C.R., Rens A.P.J., Hoffman A.J. Identification of types of distortion sources in power systems by applying neural networks. 6th IEEE AFRICON, 2002, vol. 2(2), pp. 829-834.

30. Oh J.W., Jeong J. Convolutional neural network and 2-D image based fault diagnosis of bearing without retraining. 3rd International Conference (ICDA 2019), 2019, pp. 134-138. DOI: 10.1145/3314545.3314563.

31. Osowski S. Neural network for estimation of harmonic components in a power system. IEEE Proceedings on Generation, Transmission and Distribution, 1992, vol. 139(2), pp. 129-135.

32. RosenblattF. Principles of neurodymamics. Washington, Spartan books, 1962.

33. RumelhartD.E., Hinton G.E., WilliamsR.J. Learning Internal Representations by Error Propagation. Parallel Distributed Processing. Cambridge, MA-MIT Press, 1986, vol. 1, pp. 318-362.

34. Samarasinghe S. Neural Networks for Applied Sciences and Engineering: From Fundamentals to Complex Pattern Recognition. 1st ed. Boca Raton, Auerbach Publications, 2006, 570 p.

35. SlavutskiyA., SlavutskiiL., SlavutskayaE. Neural Network for Real-Time Signal Processing: the Nonlinear Distortions Filtering. International Ural Conference on Electrical Power Engineering (UralCon), 2021, pp. 84-88. DOI: 10.1109/UralCon52005.2021.9559619.

36. Schmidhuber J. Deep learning in neural networks: An overview. Neural networks, 2015, vol. 61, pp. 85-117. DOI:10.48550/arXiv.1404.7828.

СЛАВУТСКИЙ ЛЕОНИД АНАТОЛЬЕВИЧ - доктор физико-математических наук, профессор кафедры автоматики и управления в технических системах, Чувашский государственный университет, Россия, Чебоксары ([email protected]; ОКСШ: https://orcid.org/0000-0001-6783-2985).

СЛАВУТСКАЯ ЕЛЕНА ВЛАДИМИРОВНА - доктор психологических наук, профессор кафедры психологии и социальной педагогики, Чувашский государственный педагогический университет имени И.Я. Яковлева, Россия, Чебоксары ([email protected]; ОКСГО: https://orcid.org/0000-0002-3759-6288)._

Leonid A. SLAVUTSKII, Elena V. SLAVUTSKAYA NEURAL NETWORK SIGNAL PROCESSING: THE TASKS WITHOUT "DEEP LEARNING" Key words: artificial neural networks, direct propagation, signal processing in electrical engineering, approximation, error in determining parameters, transients.

The purpose of the study is to evaluate the possibility of using artificial neural networks for electrical signals processing.

Methods. The application of a multilayer perceptron for these purposes as the simplest neural feed forward network is considered. Its difference as the basis of neural network algorithms is that when analyzing dynamic processes, signal processing should be carried out in a "sliding time window ".

Results. It is shown that neural network processing makes it possible to approximate the shape of the signal with high accuracy and determine its parameters in real time. Using the example of periodic signals and transients in electrical circuits, accuracy assessments are made and the features of neural network processing are analyzed. The necessary sizes of the training sample of signals and the level of errors that occur when testing a neural network are discussed. Estimates of the required signal sampling frequency, the "sliding window " duration and the variation range ofsignal parameters when creating a training sample are given.

Conclusions. It is shown that the proposed approach does not require "deep learning" of neural networks with complex architecture. It enables to create a signals training sample based on simple analytical formulas and to control the neural network algorithm quality at intermediate stages of calculations.

References

1. Andreev O.N., Slavutskiy A.L., Alekseev V.V. Strukturnyy analiz elektrotekhnicheskikh signalovpri rekurrentnom ispol'zovanii mnogosloynogoperseptrona [Electrical signals' structural analysis with recurrent use of a multilayer perceptron]. Elektrotekhnika, 2022, no 8, pp. 41-44.

2. Kruglov V.V., Borisov V.V. Iskusstvennye neironnye seti. Teoriya i praktika [Neural networks. Theory and practice]. Moscow, Goryachaya liniya Telekom Publ., 2001, 382 p.

3. Minskiy M., Peypert S. Perseptrony [Perceptrons]. Moscow, Mir Publ., 1971, 261 p.

4. Gorban' A.N., Dunin-Barkovskiy V.L., Kirdin A.N. et al. Neyroinformatika [Neuroinfor-matics]. Novosibirsk, Nauka Publ., 1998, 296 p.

5. Slavutsky A.L., Slavutsky L.A., Alekseev V.V. et al. Neyrosetevoy algoritm vosstanovleniya v real'nom vremeni signalapromyshlennoy chastotypri nelineynykh iskazheniyakh [A Neural-Network Algorithm for Real-Time Recovery of an Industrial-Frequency Signal Upon Nonlinear Distortions]. Russian Electrical Engineering, 2021, vol. 92, no. 8, pp. 429-432. DOI: 10.3103/S1068371221080113.

6. Petrov A.P. O vozmozhnostyakhpertseptrona [On the capabilities of the perceptron]. Izvestiya ANSSSR. Tekhnicheskaya kibernetika, 1964, no. 6, pp. 25-57.

7. Slavutskaya E., Slavutskiy L. O vybore struktury iskusstvennykh neyrosetey i algoritmov analiza psikhodiagnosticheskikh dannykh [On choosing the artificial neural networks structure and the algorithms for psycho diagnostic data analyzing]. Kazan pedagogical journal, 2020, no. 5(142), pp. 202-210. DOI: 10.34772/KPJ.2020.142.5.026.

8. Haykin S. Neural Networks. New Jersey, 1999 (Russ. ed.: Neyronnyye seti:polnyy kurs. 2-ye izd. Moscow, Vil'yams Publ., 2006, 1104 p.).

9. Andreev O.N., Slavutskiy A.L., Slavutskii L.A. Neural network in a sliding window for power grids signals structural analysis. IOP Conference Series: Earth and Environmental Science, 2022, vol. 990. DOI: 10.1088/1755-1315/990/1/012054.

10. Antonov V.I., Naumov V.A., Fomin A.I. et al. Adaptive structural analysis of input signals of digital and relay protection and automation. Russian Electrical Engineering, 2015, vol. 86, pp. 391397. DOI: 10.3103/S1068371215070032.

11. Basodi S., Zhang H., Pan Y. Gradient amplification: An efficient way to train deep neural networks. Big Data Mining and Analytics, 2020, vol. 3(3), pp. 196-207.

12. Billings S.A. Nonlinear system identification: NARMAX methods in the time, frequency, and spatio-temporal domains. John Wiley & Sons, 2013, 555 p. DOI 10.1002/9781118535561.

13. Bhattacharya B., Sinha A. Intelligent Fault Analysis in Electrical Power Grids. In: IEEE 29th International Conference on Tools with Artificial Intelligence (ICTAI). Boston, 2017, pp. 985-990. DOI: 10.1109/ICTAI.2017.00151.

14. Burton B., Harley R.G. Reducing the computational demands of continually online-trained artificial neural networks for system identification and control of fast processes. IEEE Transactions on Industry Applications, 1998, vol. 34(3), pp. 589-596.

15. Bychkov A., Slavutskii L., Slavutskaya E. Neural Network for Pulsed Ultrasonic Vibration Control of Electrical Equipment. International Ural Conference on Electrical Power Engineering (UralCon), 2020, pp. 24-28. DOI: 10.1109/UralCon49858.2020.9216248.

16. Coury D.V., Oleskovicz M., Aggarwal R.K. An ANN routine for fault detection, classification and location in transmission lines. Electrical Power Components and Systems, 2002, no. 30, pp. 1137-1149.

17. Dharmendra K., Moushmi K., Zadgaonkar A.S. Analysis of generated harmonics due to transformer load on power system using artificial neural network. International journal of electrical engineering, 2013, vol. 4(1), pp. 81-90.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

18. Grossberg S. A Path Toward Explainable AI and Autonomous Adaptive Intelligence: Deep Learning, Adaptive Resonance, and Models of Perception, Emotion, and Action. Front. Neurorobot, 2020, vol. 14. DOI: https://doi.org/10.3389/fnbot.2020.00036.

19. Ince T., Kiranyaz S., Eren L., Askar M., Gabbou M. Real-Time Motor Fault Detection by 1-D Convolutional Neural Networks. IEEE Transactions on Industrial Electronics, 2016, vol. 63, vol. 11, pp. 7067-7075. DOI: 10.1109/TIE.2016.2582729.

20. Ivanov S.O., Nikandrov M., Lariukhin A. Neuro Algorithm Accuracy Evaluation for The Anomalies Detecting in Overcurrent Protection Operation. International Ural Conference on Electrical Power Engineering (UralCon), 2021, pp. 116-120. DOI: 10.1109/UralCon52005.2021.9559614.

21. He Z., Lin S., Deng Y., Li X., Qian Q. A rough membership neural network approach for fault classification in transmission lines. International Journal of Electrical Power and Energy Systems, 2014, vol. 61, pp. 429-439.

22. Jain A., Thoke A.S., Patel R.N. Fault classification of double circuit transmission line using artificial neural network. International Journal of Electrical Systems Science and Engineering, 2008, vol. 1, pp. 230-235.

23. Jamil M., Kalam A., Ansari A.Q., Rizwan M. Generalized neural network and wavelet transform based approach for fault location estimation of a transmission line. Applied Soft Computing, 2014, vol. 19, pp. 322-332.

24. Keerthipala W.L., Low Tah Chong, Tham Chong Leong. Artificial neural network model for analysis of power system harmonics. IEEE International Conference on Neural Networks, 1995, vol. 2, pp. 905-910.

25. Kozma R., Ilin R., Siegelmann H. T. Evolution of Abstraction Across Layers in Deep Learning Neural Networks. Computer Science, 2018, vol. 144, pp. 203-213. DOI: 10.1016/j.procs.2018.10.520.

26. Kulikov A.L., Loskutov A.A., Mitrovic M. Improvement of the technical excellence of multiparameter relay protection by combining the signals of the measuring fault detectors using artificial intelligence methods. International Scientific and Technical Conference Smart Energy Systems (SES-2019), 2019, vol. 124. DOI: 10.1051/e3sconf/201912401039.

27. Leroux S., Verbelen T., Simoens P. et al. Iterative neural networks for adaptive inference on resource-constrained devices. Neural Comput & Applic, 2022, vol. 34, pp. 10321-10336. DOI: 10.1007/s00521-022-06910-5.

28. Leroux S., Bohez S., Verbelen T. et al. Resource-constrained classification using a cascade of neural network layers. International Joint Conference on Neural Networks (IJCNN), 2015, pp. 1-7, DOI: 10.1109/IJCNN.2015.7280601.

29. Niekerk C.R., Rens A.P.J., Hoffman A.J. Identification of types of distortion sources in power systems by applying neural networks. 6th IEEE AFRICON, 2002, vol. 2(2), pp. 829-834.

30. Oh J.W., Jeong J. Convolutional neural network and 2-D image based fault diagnosis of bearing without retraining. 3rd International Conference (ICDA 2019), 2019, pp. 134-138. DOI: 10.1145/3314545.3314563.

31. Osowski S. Neural network for estimation of harmonic components in a power sy stem. IEEE Proceedings on Generation, Transmission and Distribution, 1992, vol. 139(2), pp. 129-135.

32. Rosenblatt F. Principles of neurodymamics. Washington, Spartan books, 1962.

33. Rumelhart D.E., Hinton G.E., Williams R.J. Learning Internal Representations by Error Propagation. Parallel Distributed Processing. Cambridge, MA-MIT Press, 1986, vol. 1, pp. 318-362.

34. Samarasinghe S. Neural Networks for Applied Sciences and Engineering: From Fundamentals to Complex Pattern Recognition. 1st ed. Boca Raton, Auerbach Publications, 2006, 570 p.

35. Slavutskiy A., Slavutskii L., Slavutskaya E. Neural Network for Real-Time Signal Processing: the Nonlinear Distortions Filtering. International Ural Conference on Electrical Power Engineering (UralCon), 2021, pp. 84-88. DOI: 10.1109/UralCon52005.2021.9559619.

36. Schmidhuber J. Deep learning in neural networks: An overview. Neural networks, 2015, vol. 61, pp. 85-117. DOI:10.48550/arXiv.1404.7828.

LEONID A. SLAVUTSKII - Doctor of Physical and Mathematical Sciences, Professor, Department of Automation and Control in Technical Systems, Chuvash State University, Russia, Cheboksary ([email protected]; ORCID: https://orcid.org/0000-0001-6783-2985).

ELENA V. SLAVUTSKAYA - Doctor of Psychological Sciences, Professor, Department of Psychology and Social Pedagogy, I.Ya. Yakovlev Chuvash State Pedagogical University, Russia, Cheboksary ([email protected]; ORCID: https://orcid.org/0000-0002-3759-6288).

Формат цитирования: Славутский Л.А., Славутская E.B. Нейросетевая обработка сигналов: задачи без «глубокого обучения» // Вестник Чувашского университета. - 2023. - № 2. -С. 151-160. DOI: 10.47026/1810-1909-2023-2-151-160.

i Надоели баннеры? Вы всегда можете отключить рекламу.