Румакина Алена Владимировна, старший преподаватель, [email protected], Россия, Москва, Московский авиационный институт (национальный исследовательский университет),
Денискина Антонина Робертовна, канд. техн. наук, доцент, Россия, Москва, Московский авиационный институт (национальный исследовательский университет)
ASSESSMENT OF THE QUALITY OF SERVICE BY SMALL AIRCRAFT DURING FLOOD RESCUE D.A. Kozorez, A. V. Rumakina, A.R. Deniskina
This article discusses the task of evaluating and managing the quality of service for applications by small aircraft in emergency rescue situations, namely floods. The quality of service is assessed using two main penalty functions - the waiting time for the application service (a priority indicator in this work) and operating costs. The purpose of the study is to evaluate and improve the quality of planning group actions of small aircraft during evacuation of the population in case of flooding when using not only free, but also occupied aircraft during target distribution.
Key words: management, quality, group actions, aircraft, flood.
Kozorez Dmitry Alexandrovich, doctor of technical sciences, docent, Russia, Moscow, Moscow Aviation Institute (National Research University),
Rumakina Alena Vladimirovna, senior lecturer, [email protected], Russia, Moscow, Moscow Aviation Institute (National Research University),
Deniskina Antonina Robertovna, candidate of technical sciences, docent, Russia, Moscow, Moscow Aviation Institute (National Research University)
УДК 005.6
DOI: 10.24412/2071-6168-2024-5-11-12
АНАЛИЗ СТАБИЛЬНОСТИ ПРОЦЕССОВ С СИЛЬНО КОРРЕЛИРУЮЩИМИСЯ ПРИЗНАКАМИ
В.Г. Мосин, В.Н. Козловский, О.И. Антипова, С.А. Васин
Статья посвящена корреляционной редукции данных для отбора компонент, наиболее соответствующих решению регрессионной задачи. Предъявлена функция корреляционной редукции, описан алгоритм последовательного исключения сильно коррелирующих признаков. Алгоритм применен к данным о потреблении контента пользователями одного из ведущих хостингов. Результаты проанализированы, и на основе анализа результатов установлены рекомендуемые границы применения метода корреляционной редукции.
Ключевые слова: управление качеством, анализ данных, корреляция, машинное обучение, регрессия, анализ главных компонент, scikit-learn, pandas, numpy.
1. Введение. При понижении размерности данных, одной из ключевых задач является поиск наиболее информативных признаков, которые могут максимально сохранить вариативность и структуру данных. В этом процессе корреляция или попарная корреляция признаков играет важную роль (см. [5], [6]).
Корреляция представляет собой меру статистической взаимосвязи между двумя переменными. Она может быть положительной (если изменения одного признака соответствуют изменениям второго признака в том же направлении), отрицательной (если изменения одного признака соответствуют изменениям второго признака в противоположном направлении) или несущественной (если никакой связи между признаками нет).
Когда мы решаем задачу понижения размерности, то сталкиваемся с проблемой высокой размерности данных, при этом возникают проблемы с вычислительной сложностью алгоритмов и потерей информационной ценности признаков, так как множество из них может быть лишним или сильно коррелировать между собой.
Использование корреляции признаков позволяет нам выделить наиболее значимые и недублирующиеся характеристики данных. Для этого можно исследовать матрицу корреляций между признаками и выбрать наиболее коррелированные или наименее коррелированные пары. Если два признака сильно коррелированы, это означает, что они обладают похожей информационной ценностью и могут быть скомбинированы в один новый признак (см. [2],
[7]).
Корреляция признаков является важной составляющей в процессе понижения размерности данных, так как она позволяет выделить наиболее информативные и недублирующиеся признаки, что способствует более эффективной и точной работе моделей машинного обучения. В результате получается более компактное представление данных, которое может быть использовано для решения различных задач анализа данных и построения моделей прогнозирования (см. [1], [8]).
1.1. Теоретическая часть. Попарная корреляция признаков имеет большое значение в машинном обучении, поскольку позволяет определить, какие признаки наиболее сильно влияют на целевую переменную. Это помогает исключить из набора данных лишние или избыточные признаки, что может улучшить производительность модели и снизить ее сложность.
Исследование попарной корреляции признаков осуществляется при помощи матрицы корреляций. Это хорошо известный прием, поэтому в нашем исследовании мы сформулируем задачу не с точки зрения выявления корреляционных связей, а с точки зрения влияния коррелирующих признаков на целевую функцию линейной регрессии.
1.2. Постановки задачи
1.2.1. Предмет исследования. Предметом исследования будет метод, выделяющий в данных блоки сильно коррелирующих признаков и редуцирующий данные, оставляя по одному представителю от каждого блока.
1.2.2. Методика исследования. В качестве материала для исследования мы используем данные о потреблении контента пользователями одного из ведущих хостингов. Мы назначаем один из признаков, а именно — признак 'Просмотры', целевой функцией и строим серию регрессионных моделей прогнозирующих 'Просмотры' по значениям всех остальных признаков. Применяя функцию корреляционной редукции, мы удаляем из данных сильно коррелирующие признаки и оцениваем результат регрессии после удаления.
1.2.3. Цель исследования. Установить эффективность/неэффективность метода выявления главных компонент при помощи корреляционной редукции, а так же указать границы и область его применения.
1. 3. Технологии. Мы работаем с данными в среде Jupyter Notebook, которая предоставляет удобные инструменты для работы с языком программирования Python и его основными библиотеками: numpy, pandas, sklearn и matplotlib.
Для вычислений и обработки массивов данных мы используем библиотеку numpy, которая является одной из лучших библиотек в Python. Одномерные и многомерные числовые массивы эффективно обрабатываются с помощью предлагаемых библиотекой структур данных, алгоритмов и функций (см. [2], [3], [9]).
Другая активно используемая нами библиотека, специально созданная для работы с данными — pandas. Она тесно интегрирована с другими инструментами для анализа и вычислений данных на платформе Python, такими как numpy, sklearn и matplotlib (см. [1]).
Для решения регрессионных задач мы применяем библиотеку scikit-learn, которая также известна под именем sklearn. Библиотека sklearn является мощной и гибкой библиотекой машинного обучения, что делает ее отличным средством для реализации самых разнообразных моделей (см. [3], [4]).
2. Функция корреляционной редукции
В нашем исследовании нам понадобится инструмент, очищающий входные данные от признаков, обладающих высокой попарной корреляцией. Для этого в качестве отдельного алгоритма мы определяем функцию корреляционной редукции.
2. 1. Имя, параметры и вывод функции
2.1.1. Имя функции. Далее в тексте статьи мы будем использовать имя df_reduce.
2.1.2. Параметры функции. Функция df_reduce принимает в качестве параметров два объекта:
1. датафрейм df, из которого следует исключить сильно коррелирующие признаки;
2. пороговое значение коэффициента корреляции eps, превышение которого будет считаться высокой корреляцией признаков.
2.1.3. Вывод функции. Функция df_reduce возвращает датафрейм, столбцы которого коррелируют на уровне, не превосходящем eps, причем, для каждого блока сильно коррелирующих признаков в нем остается один представитель.
2.2. Пошаговое описание функции
2.2.1. Имена и начальные значения переменных. Нам понадобится переменная для редуцированного датафрейма и переменная для списка столбцов, подлежащих исключению из исходного датафрейма df. Обозначим их df_reduce и list_of_cols соответственно. В начале исполнения функции мы считаем, что редуцированный датафрейм df_reduce совпадает с исходным датафреймом df, а список исключаемых столбцов list_of_cols пуст:
df_reduce = df list_of_cols = []
2.2.2. Стартовые значения счетчиков вложенного цикла. Мы будем перебирать пары столбцов дата-фрейма df и вычислять соответствующие коэффициенты корреляции. На старте цикла мы присваиваем первому счетчику значение i=0, то есть, мы будем сравнивать нулевой столбец датафрема df со всеми остальными столбцами. Второму счетчику мы присваиваем значение j=i+1, то есть, сравнение будет осуществляться со столбцами, начиная со следующего столбца.
2.2.3. Пополнение списка коррелирующих признаков. Пользуясь методом corr библиотеки pandas, мы вычисляем коэффициент корреляции для пары столбцов с номерами i и j. В случае если по абсолютной величине он оказывается больше порогового значения eps, мы, пользуясь методом append, добавляем имя столбца с номером j в список list_of_cols:
if abs(df.corr()[df.columns[i]][df.columns[j]]) > eps: list_of_cols.append(df.columns[j])
Таким образом, в семействе столбцов, сильно коррелирующих с i-м столбцом, после удаления этого семейства из датафрейма df, всегда будет оставаться один представитель: это столбец с номером i.
2.2.4. Цикл по внутреннему счетчику. Возвращаемся к шагу 2.2.2, увеличиваем значение счетчика j на 1 и повторяем действия шага 2.2.3 до исчерпания списка столбцов. По окончании шага 2.2.4 в список list_of_cols будут занесены имена всех столбцов, сильно коррелирующих с i-м столбцом, кроме самого i-го столбца.
2.2.5. Цикл по внешнему счетчику. Возвращаемся к шагу 2.2.2, увеличиваем значение счетчика i на 1 и повторяем действия шага 2.2.3-2.2.4 до исчерпания списка столбцов. По окончании шага 2.2.5 в список list_of_cols будут занесены имена всех столбцов, относящихся к семействам сильно коррелирующих столбцов, за исключением одного представителя от каждого семейства.
2.2.6. Удаление повторяющихся элементов из списка list_of_cols. В списке list_of_cols, если он не пустой, могут оказаться повторяющиеся элементы, что приведет к ошибке при попытке удалить столбцы из датафрей-ма df, согласно этому списку. Прежде чем удалять столбцы из датафрейма, мы должны очистить список удаляемых столбцов от повторов. Для этого воспользуемся тем, что такой тип данных языка Python как «множество» не содержит повторяющихся элементов по определению. Поэтому полученный нами список (с возможными повторами) мы переводим в множество, а полученное множество (заведомо без повторов) снова переводим в список:
set_of_cols = set(list_of_cols)
list_of_cols = list(set_of_cols)
2.2.7. Удаление сильно коррелирующих признаков из датафрейма df. Теперь мы можем просто применить метод drop библиотеки pandas:
df_reduce = df.drop(columns = list_of_cols)
В результате в датафрейме df_reduce останутся только такие признаки, что любая пара из них обладает коэффициентом корреляции, по абсолютной величине меньшим, нежели eps.
3. Описание и предварительная обработка данных. В настоящей работе мы используем данные о потреблении контента пользователями одного из ведушдх хостингов. Данные содержат 500 записей, индексированных датами с 2021-08-20 по 2023-01-01 и описанных признаками 'Дата', 'Просмотры', 'Время просмотра (часы)' и т. д. (всего 19 признаков, подробнее о структуре данных см. ниже, п. 3.1).
3.1. Чтение данных. Применяем метод read_csv библиотеки pandas, результат записываем в переменную df. Полученный дата-фрейм имеет следующий вид.
Дата Просмотры Время просмотра (часы) Поделились Дизлайки Лайки
1 2023-01-01 475.0 21.2038 9.0 0.0 16.0
2 2022-12-31 174.0 5.4814 1.0 0.0 4.0
3 2022-12-30 490.0 17.8182 3.0 1.0 3.0
498 2021-08-22 275.0 10.4130 1.0 0.0 2.0
499 2021-08-21 222.0 10.5967 0.0 2.0 4.0
500 2021-08-20 209.0 8.6935 0.0 0.0 1.0
При помощи метода info библиотеки pandas выводим сведения о признаках.
# Column Non-Null Count Dtype
0 Дата 500 non-null object
1 Просмотры 500 non-null float64
2 Время просмотра (часы) 500 non-null float64
3 Поделились 500 non-null float64
4 Постоянные зрители 500 non-null float64
5 Новые комментарии 500 non-null float64
6 Отказались от подписки 500 non-null float64
7 Новые подписчики 500 non-null float64
8 Новые зрители 500 non-null float64
9 Среднее число просмотров одним пользователем 500 non-null float64
10 Уникальные зрители 500 non-null float64
11 CTR для значков видео (%) 500 non-null float64
12 Показы 500 non-null float64
13 Подписчики 500 non-null float64
14 Средний процент просмотра (%) 500 non-null float64
15 Процент лайков 500 non-null float64
16 Средняя продолжительность просмотра 500 non-null float64
17 Дизлайки 500 non-null float64
18 Лайки 500 non-null float64
Видим, что один признак относится к строковому типу, остальные являются числовыми с плавающей запятой.
3.2 Исключение нечисловых данных. Признак 'Дата' нам не понадобится. В теле алгоритма мы будем работать исключительно с числовыми показателями. Поэтому, при помощи метода drop библиотеки pandas, мы исключаем строковый признак 'Дата' из датафрейма.
Просмотры Время просмотра (часы) Поделились Дизлайки Лайки
1 475.0 21.2038 9.0 0.0 16.0
2 174.0 5.4814 1.0 0.0 4.0
3 490.0 17.8182 3.0 1.0 3.0
498 275.0 10.4130 1.0 0.0 2.0
499 222.0 10.5967 0.0 2.0 4.0
500 209.0 8.6935 0.0 0.0 1.0
Теперь датафрейм df содержит только числовые данные.
3.3. Нормализация данных. Применяем к датафрейму df метод describe библиотеки pandas и получаем его статистики.
Параметры min mean max std
Просмотры 126.00 932.43 2200.00 418.73
Время просмотра (часы) 5.48 37.17 96.72 16.64
Поделились 0.00 6.96 71.00 6.25
Постоянные зрители 30.00 163.34 463.00 78.90
Новые комментарии 0.00 0.53 6.00 0.83
Отказались от подписки 0.00 2.77 29.00 2.55
Новые подписчики 0.00 6.49 19.00 3.51
Новые зрители 60.00 366.83 735.00 174.01
Параметры min mean max std
Среднее число просмотров одним пользователем 1.31 1.79 2.85 0.21
Уникальные зрители 96.00 530.18 1103.00 239.22
CTR для значков видео (%) 1.25 5.54 8.52 1.11
Показы 1938.00 8093.78 39479.00 3816.08
Подписчики -23.00 3.72 15.00 4.02
Средний процент просмотра (%) 18.68 26.72 41.29 3.41
Процент лайков 0.00 92.02 100.00 10.31
Средняя продолжительность просмотра 96.07 144.33 211.02 15.66
Дизлайки 0.00 1.28 10.00 1.34
Лайки -6.00 15.80 70.00 9.13
Значения признаков сильно разбалансированы. Например, признаки 'Показы' и 'Лайки' отличаются друг от друга на несколько порядков. Для устранения дисбаланса мы проводим нормализацию данных:
df = (df - df.mean())/df.std()
после чего все признаки центрируются и описываются величинами примерно одного порядка. Нормализованный датафрейм при помощи метода to_numpy библиотеки pandas переводим в массив numpy и результат записываем в переменную X:
X = df.to_numpy() Данные подготовлены для их использования в теле алгоритма. 4. Алгоритм. Алгоритм представляет собой простой одномерный цикл for.
4.1. Счетчик цикла. Мы будем варьировать параметр eps определенной выше функции корреляционной редукции. Напомним, что он отвечает за пороговое значение коэффициента корреляции, преодоление которого означает высокую коррелированность признаков, причем, речь идет об абсолютной величине коэффициента корреляции (см. пункт 2). Таким образом, естественный промежуток изменения параметра eps — это отрезок [0, 1].
Исходя из соображений визуализации, в теле алгоритма мы немного расширим его и будем варьировать eps в промежутке [-0.1, 1.1] с шагом 0.05, для чего воспользуемся методом arrange библиотеки numpy:
np.arange(-0.1, 1.1, 0.05) На старте алгоритма счетчик цикла принимает значение k=-0.1.
4.2. Стартовые списки результатов. В рамках каждой итерации цикла мы будем исключать из исходного датафрейма df сильно коррелирующие признаки и решать регрессионную задачу относительно признака целевой функции, в качестве которой мы выбрали признак 'Просмотры'. При этом каждый раз будет решаться новая задача, у которой, вообще говоря, будет новая размерность и новая точность решения.
Для того чтобы записать результаты по всем итерациям, мы заводим два списка (в один будем заносить размерность задачи, а во второй — коэффициент детерминации, получающийся после ее решения) и на старте цикла полагаем их равными пустому списку: score_list = [] dim_list = []
4.3. Применение функции корреляционной редукции. При помощи метода drop библиотеки pandas удаляем из датафрейма df признак 'Просмотры' и подаем получившийся датафрейм на вход функции df_reduce, полагая в качестве параметра eps текущее значение счетчика цикла. Результат записываем в переменную df_reduce:
df_reduce = df_reduce(df.drop(columns = ['Просмотры']), k)
4.4. Пополнение списка размерностей. После исполнения шага 4.3 в датафрейме df_reduce остается какое-то (вообще говоря, меньшее) количество столбцов, которое и означает размерность решаемой в данной итерации регрессионной задачи.
Пользуясь методом columns библиотеки pandas, мы получаем список столбцов датафрейма df_reduce, а их количество вычисляем при помощи метода len как длину этого списка. Затем, при помощи метода append заносим получившуюся размерность регрессионной задачи в список dim_list:
dim_list.append(len(df_red.columns))
4.5. Подготовка данных для регрессионной задачи. Реализация линейной регрессии в библиотеке обладает некоторой спецификой в зависимости от размерности регрессионной задачи.
Дело в том, что если задача одномерная, то в качестве левой части выступает одномерный массив, который интерпретируется алгоритмом sklearn как строка, и это приводит к программной ошибке при решении регрессионной задачи. Если же размерность задачи больше единицы, то такой ошибки не происходит, поскольку многомерный массив интерпретируется как набор столбцов.
Чтобы преодолеть это обстоятельство, вводим условие на размерность задачи: a) если задача одномерная, то массив левой части следует преобразовать в столбец; b) если же задача многомерная, то оставить массив левой части в том же виде. Выполнение этих требований реализуется при помощи условного оператора if/else: if len(df_reduce.columns) == 1:
X = df_reduce.to_numpy().reshape(-1, 1) else:
X = df_reduce.to_numpy()
Здесь X означает массив левой части регрессионной задачи, метод to_numpy библиотеки pandas переводит дата-фрейм df_reduce в массив numpy, а метод reshape преобразует строчку в столбец.
В качестве правой части регрессионной задачи будем использовать выбранный нами для этого признак 'Просмотры' непосредственно из исходного датафрейма df:
y = df['Просмотры'].to_numpy()
4.6. Построение и обучение регрессионной модели. Пользуясь методом LinearRegression из модуля line-ar_model библиотеки sklearn, формируем объект model и применяем к нему метод fit:
model = skl.LinearRegression()
model.fit(X, y)
4.7. Пополнение списка оценок. Применяя к обученной на предыдущем шаге модели метод score из модуля linear_model библиотеки sklearn, получаем значение коэффициента детерминации и при помощи метода append, заносим его в список score_list:
score_list.append(model.score(X, y))
4.8. Цикл по счетчику k. Возвращаемся к шагу 4.1, переходим к следующему значению k и повторяем шаги 4.2-4.7.
5. Результаты. График зависимости коэффициента детерминации от порогового значения коэффициента корреляции представлен на рис. 1. Принимая в качестве приемлемого значения коэффициента детерминации значение около 0.9, обнаруживаем, что на пороговом уровне корреляции 0.65 коэффициент детерминации R2= 0.89.
Рис. 1. Приемлемое значение коэффициента детерминации Я2 = 0.89 достигается на уровне пороговой
корреляции eps = 0.65
График зависимости размерности данных от порогового значения коэффициента корреляции представлен на рис. 2. Если предыдущий анализ показал пороговое значение корреляции на уровне 0.65, то, принимая этот уровень, обнаруживаем, что размерность регрессионной задачи на уровне 0.65 оказывается равной 10, а оставшиеся 7 признаков могут быть исключены из датафрема.
0 -
15 10
-0.2 0.0 0.2 0.4 0.6 0.8 1.0 1.2 0.60 0,65 0.70 Рис 2. При уровне порога eps = 0.65 размерность регрессионной задачи снижается до 10
При таких установках сохраняются признаки:
'Новые комментарии', 'Поделились', 'Процент лайков', 'Дизлайки', 'Лайки', 'Отказались от подписки', 'Новые подписчики', 'Постоянные зрители', 'Среднее число просмотров одним пользователем', 'Средний процент просмотра (%)'; а удаляются признаки: 'Новые зрители', 'Уникальные зрители', 'CTR для значков видео (%)', 'Показы', 'Подписчики', 'Время просмотра (часы)', 'Средняя продолжительность просмотра'
6. Выводы, замечания и рекомендации. Итак, рассмотренный нами метод действительно позволяет понизить размерность данных, однако при этом остаются не самые лучшие с точки зрения решаемой задачи признаки. Напомним, что мы сравнивали результаты решения регрессионной задачи, приняв в качестве целевой функции показатель 'Просмотры', который естественным образом описывает востребованность контента. Мы добились приемлемого значения оценки качества решения на уровне Я2 = 0.89, исключив 7 показателей и понизив размерность данных до 10, но дело в том, что это не лучшее решение. Если в качестве предикторов для целевой функции 'Просмотры' выбрать всего два признака: 'Время просмотра (часы)' и 'Средняя продолжительность просмотра', то задача будет решена на уровне Я2 = 0.98, то есть, размерность данных может быть понижена до 2 с сохранением гораздо более высокого качества прогнозирования.
Таким образом, в качестве вывода следует сказать, что рассмотренный метод корреляционной редукции неэффективно выделяет главные признаки. Его можно использовать только:
1.как один из методов разведочного анализа;
2.или в ситуации, когда семантика данных недоступна, например, для анонимизированных или зашифрованных данных.
Список литературы
1.Хейдт М. Изучаем Pandas. Москва: ДМК Пресс, 2018. 438 с.
2.Бурков А. Машинное обучение без лишних слов. СПб: Питер, 2020. 192 с.
3.Вьюгин В.В. Математические основы теории машинного обучения и прогнозирования. М.: МЦИМО. 2013. 387 с.
4.Бринк Х., Ричардс Дж., Феверолф М. Машинное обучение. СПб.: Питер, 2017. 336 с.
5.Мишурина А.А., Гришина Т.Г., Феофанов А.Н. Корреляционный анализ данных с использованием языка программирования python на базе системного подхода к управлению качеством // Технология машиностроения. 2023. № 7. С. 51-54.
6.Kozlovskiy V. System of customer satisfaction monitoring by new cars in view of perceived quality / V. Ko-zlovskiy, D. Aydarov // Quality - Access to Success. 2017. Т. 18. № 161. С. 54-58.
7.Панюков Д.И. Новое руководство по FMEA: структурный анализ процессов / Д.И. Панюков, В.Н. Козловский, Д.В. Айдаров // Методы менеджмента качества. 2020. № 10. С. 36-42.
8.Козловский В.Н. Концепция методологии комплексной программы улучшений / В.Н. Козловский, Д.И. Благовещенский, Д.В. Айдаров, Д.И. Панюков, Р.Д. Фарисов // Стандарты и качество, 2022. № 7. С. 36-42.
9.Panyukov D. Development and research fmea expert team model / D. Panyukov, V. Kozlovsky, Y. Klochkov // International Journal of Reliability, Quality and Safety Engineering, 2020. Т. 27. № 5. С. 2040015.
Мосин Владимир Геннадьевич, канд. физ.-мат. наук, доцент, yanbacha@yandex. ru, Россия, Самара, Самарский государственный технический университет,
Козловский Владимир Николаевич, д-р техн. наук, профессор, заведующий кафедрой, [email protected], Россия, Самара, Самарский государственный технический университет,
Антипова Ольга Игоревна, канд. техн. наук, доцент, OlechkaNE@bk. ru, Россия, Самара, Самарский национальный исследова-тельский университет имени академика С.П. Королева,
Васин Сергей Александрович, д-р техн. наук, профессор, vasin_sa53@mail. ru, Россия, Тула, Тульский государственный университет
ANALYSIS OF THE STABILITY OF PROCESSES WITH STRONGLY CORRELATE FEATURES V.G. Mosin, V.N. Kozlovsky, O.I. Antipova, S.A. Vasin
The article is devoted to the correlation reduction of data for the selection of components that best match the solution of the regression problem. A correlation reduction function is presented, and an algorithm for the sequential elimination of strongly correlated features is described. The algorithm is applied to data on content consumption by users of one of the leading hosting companies. The results are analyzed, and based on the analysis of the results, the recommended limits of the application of the correlation reduction method are established.
Key words: quality management, data science, correlation, machine learning, regression, PCA, scikit-learn, pandas, numpy.
Mosin Vladimir Gennadievich, candidate of physical and mathematical sciences, docent, yanbacha@yandex. ru, Russia, Samara, Samara State Technical University,
Kozlovsky Vladimir Nikolaevich, doctor of technical sciences, professor, head of the department, [email protected], Russia, Samara, Samara State Technical University,
Antipova Olga Igorevna, candidate of technical sciences, docent, [email protected], Russia, Samara, Samara National Research University named after S.P. Korolev,
Vasin Sergey Alexandrovich, doctor of technical sciences, professor, vasin_sa53@mail. ru, Russia, Tula, Tula State University
УДК 621.313
Б01: 10.24412/2071-6168-2024-5-16-17
КОЛИЧЕСТВЕННАЯ ОЦЕНКА ВЛИЯНИЯ ТЕХНОЛОГИЧЕСКИХ ПОГРЕШНОСТЕЙ ЭЛЕМЕНТОВ КОНСТРУКЦИИ АВТОМОБИЛЬНОГО ГЕНЕРАТОРА НА ФОРМИРОВАНИЕ НЕСООСНОСТИ СТАТОРА
ИРОТОРА
А.С. Саксонов, В.Н. Козловский, О.Д. Ибрагимов
В статье представлены результаты разработки инструментария количественной оценки влияния технологических погрешностей элементов конструкции автомобильного генератора на формирование несоосности статора и ротора.
Ключевые слова: качество, автомобильное электрооборудование, генератор.
Процесс производства автомобильных электрокомпонентов характеризуется изменчивостью параметров стабильности технологического процесса, на которую существенно влияет ширина разброса технологических погрешностей [1, 2], возникающих вследствие недостаточного качества технологической оснастки и инструмента, задействованных во время осуществления технологических операций при изготовлении автомобильных электрокомпонентов.
В ряде исследований доказано [3, 4, 5, 6], что технологические погрешности элементов конструкции электромеханических преобразователей (ЭМП), используемых в системе электрооборудования и электроники современных автомобилей существенно влияют на формирование их электротехнических и надежностных характеристик. Так, в предыдущих работах авторов статьи неоднократно были продемонстрированы взаимосвязи между технологическими погрешностями элементов конструкции автомобильного генератора (АГ), несоосностью статора и ротора и электротехническими и надежностными характеристиками [7, 8, 9], а также предложен инструментарий, позволяющий прогнозировать стабильность электротехнических и надежностных характеристик АГ в зависимости от величины технологических отклонений.