The article presents a comparative analysis of modern software solutions for modeling welding processes. The main characteristics and functionality of each software product are considered, including calculation methods, the ability to take into account microstructural changes, residual stresses and deformations. The programs were compared according to key parameters, such as the purpose of modeling, the calculation method, the possibility of accounting for various physical phenomena and the features of geometric modeling. Recommendations on the choice of software are presented, depending on the specifics of the tasks being solved. Special attention is paid to a comparative analysis of the functionality of each program, including their ability to simulate different types of welding, take into account microstructural changes in materials, and calculate residual stresses and deformations. The article presents a comparative table that clearly demonstrates the key characteristics of the software products under consideration.
Key words: software, information analysis, comparison of software packages, welding processes, heat treatment, computer modeling.
Novikov Vladislav Gennadievich, process engineer, therealnovikov@,gmail.com, Russia, Tula, JSC «PO Tula Machine-Building Plant named after. Ryabikov»
УДК 004.654
DOI: 10.24412/2071-6168-2025-1-135-136
МЕТОДИКА ПОВЫШЕНИЯ СВОЕВРЕМЕННОСТИ СИНХРОНИЗАЦИИ БАЗ ДАННЫХ АВТОМАТИЗИРОВАННЫХ СИСТЕМ СПЕЦИАЛЬНОГО НАЗНАЧЕНИЯ НА ОСНОВЕ МАШИННОГО ОБУЧЕНИЯ
А.В. Удальцов
В статье рассматривается методика повышения своевременности синхронизации баз данных в автоматизированных системах специального назначения. Методика включает мониторинг актуальности информационных ресурсов и использование обучения с подкреплением для оптимизации периодов синхронизации. Предложенные алгоритмы и методы позволяют значительно повысить своевременность синхронизации данных между пунктами управления, что минимизирует риски принятия некорректных управленческих решений. Эффективность методики подтверждена на примере имитационной модели.
Ключевые слова: синхронизация баз данных, актуальность информации, система поддержки принятия решений, информационные ресурсы, имитационное моделирование, AnyLogic.
В современных автоматизированных системах специального назначения (АС СН) управление осуществляется в иерархической структуре, где каждый уровень представляют собой пункты управления (ПУ). На каждом ПУ развёрнута система с веб приложением клиент-серверным специальным программным обеспечением, обеспечивающая обработку и обновление данных в реальном времени. Однако ПУ территориально удалены друг
от друга, что затрудняет синхронизацию данных между ними. С целью обеспечения устойчивости управления, ПУ между собой архитектуру баз данных типа сервер-сервер.
Процесс синхронизации баз данных (БД) между ПУ и заключается в передаче данных с нижестоящего ПУ на вышестоящий посредством специального файла. Этот файл формируется и отправляется в соответствии с регламентом, установленным для каждого ПУ. Вышестоящий ПУ, получив данный файл, вручную обрабатывает его и вносит изменения в свою базу данных через клиентские приложения.
Основная проблема, с которой сталкиваются автоматизированные системы, заключается в несвоевременной синхронизации данных [1]. Изменения в базах данных на нижестоящих ПУ происходят часто, однако регламентированная периодичность отправки специальных файлов не всегда позволяет поддерживать актуальность данных на вышестоящих ПУ. Это может приводить к значительным расхождениям в данных между уровнями системы и, как следствие, к принятию некорректных управленческих решений.
Для решения данной проблемы разработана методика, направленная на повышение своевременности синхронизации баз данных. Основной её задачей является мониторинг вероятности актуальности информационных ресурсов (ИР) и автоматическая сигнализация в случае необходимости срочной синхронизации данных. Это позволяет оперативно обновлять данные на вышестоящих ПУ, минимизируя расхождения и обеспечивая более точное и своевременное принятие решений [2].
Данная методика состоит из четырех этапов: формирование исходных данных; выбора варианта действия агента и обучение с подкреплением; организация хранения значений О матрицы; оценка повышения своевременности синхронизации баз данных и формулирования рекомендаций для внесений изменений в регламент.
Основные этапы разработанной методики представлены на рисунке 1. Перейдем к подробному рассмотрению каждого этапа методики.
На первом этапе формируется (синтезируется) исходные данные о том, какие таблицы участвовали в информационном обмене и как частота происходили изменения, обосновываются требования к сети и структура представления выходных данных. Алгоритм формирования исходных данных методики состоит из 3 шагов.
Шаг 1. Подключение к журналу событий осуществляется администратором баз данных, для этого предоставляются доступ и путь к каталогу с местонахождение файлов журнала событий базы данных [3].
Шаг 2. Работу блока «Анализ журнала» можно представить в виде теории множеств. Пусть в базе данных есть конечное количество таблиц:
Т = {¡ь ¡к }, (1)
где ¡1 - имя (уникальный идентификатор) 1-й таблицы.
Журнал событий баз данных (ЛОГ) можно представить как множество ЛОГ L = [L\,L2,...,Lm}• Каждая запись представлена в виде следующего кортежа:
¡i = (Timestampi, Log _ levels, pidj, ip _ clientt, table _ namei, User , session _ IDj, text} • (2)
1 этап. Формирование исходных данных
С жадная стратегия
стратегия Больцмана
2 этап. Обучение с подкреплением
2 этап. Обучение с подкреплением
3 этап. Организация хранения значений Q матрицы
г_4_,
4 этап. Оценка повышения своевременности синхронизации БД.
Формулировка рекомендаций для внесения изменений в регламент
Рис. 1. Этапы методики повышения своевременности синхронизации баз данных автоматизированных систем специального назначения
Пусть существует конечное множество операций, связанных с изменениями данных O = {insert, update, delete}, тогда каждую запись lmi е L ,можно описать вектором:
lmi = {tmi, oi, di}, (3)
где ti е T - таблица, которая была изменена; Oi е O - операция, связанная с
изменением данных; di - временная метка событий.
Тогда существует функция, которая отображает записи ЛОГ на количество изменений каждой таблицы:
f (t) = \{li е L | li ■ Ц = t}|, Vt е T, (4)
Функция (4) подсчитывает, сколько раз каждая таблица была изменена. Для хранения этой информации используется вектор:
F = [ f (ti), f (t 2),..., f (tk )], (5)
где F - вектор частоты изменения; f (ti) - число изменений таблицы tj.
Для получения временной метки последнего изменения t е T:
g(t) = max{di 1 li ■ ti = t1, (6)
где функция g(t) вычисляет максимальное значение времени из всех записей, относящихся к данной таблицей результаты представляются в виде вектора:
Gt = [ g (ti), g (t 2),..., g (tk )], (7)
Таким образом, блок «Анализ журнала» можно представить также в виде алгоритма из 3 шагов.
Шаг 1 выполняет фильтрацию лога на основе регулярных выражений и извлекаются строки, содержащие информацию о таблицах и операциях. Формируется множество записей L.
В шаге 2 происходит вычисление вектора F, который показывает, сколько раз изменялась каждая таблица.
В шаге 3 определяется вектор G, который содержит временные метки последних изменений каждой таблицы.
На шаге «Получение исходных данных» осуществляется преобразование в матрицу A:
Aij =1 {lp е L I lp ■ ti = ti Л lp ■ Oi = oj} l> (8)
где i - таблица, j -тип операции. Aij показывает, сколько раз была выполнена операция Oj на таблице if.
Пример работы программы: допустим, ЛОГ содержит следующие записи, для наглядности ЛОГ был упрощен, убрана вся служебная и не используемая информация.
L = {{iablei, insert ,2024 - 12 - 01 12 : 00},
{itable2, update,2024 - 12 - 01 12: 05},
{tablei, delete,2024 - 12 - 01 12:10}}
Множество таблиц: T = {table1, table2}.
Множество операций: O = {inser, update, delete}.
По формуле (3.5) получаем частоту изменений F=[2,1], а по формуле (3.7) вектор G=[2024-12-01 12:10, 2024-12-01 12:05].
Тогда итоговая матрица А будет:
Г1011
A = , |_010_
где первая строка - изменения table1, вторая строка - изменения table2, а столбцы соответствуют операциям insert,update delete.
На втором этапе выбирается действие агента и происходит его обучение. Обучение с подкреплением представляется как система, где агент взаимодействует со средой, получая информацию о её состоянии и выбирая действия на основе этих данных. Среда, приняв действие, переходит в новое состояние и возвращает агенту информацию о новом состоянии и вознаграждение. Цикл «состояние-действие-вознаграждение» повторяется до завершения задачи, например, до решения поставленной проблемы [4]. Полный процесс показан на рисунке 2.
Функция, с помощью которой агент принимает решения, называется стратегией. Она представляет собой функцию, которая сопоставляет каждому состоянию оптимальное действие. Действие, в свою очередь, изменяет среду и влияет на дальнейшие наблюдения и выборы агента. Обмен
информацией между агентом и средой происходит во времени, что можно рассматривать как процесс последовательного принятия решений.
£осюлнз:е 1ТР ка шаге г
получен ье возкггрйжде-нил ссри
япувлтащш
Ъ-:
птрпод ИР п. ноЕое состояли?
Агент
Среда
ИР е. БД
Г
снкф огаи Ц^ОЕ^ГЬ Г щрпг игр 111 дг Л
Рис. 2. Цикл управления агентом в обучении с подкреплением
В задачах обучения с подкреплением цель агента - максимизировать целевую функцию, которая представляет собой сумму всех полученных вознаграждений. Для этого агент взаимодействует со средой методом проб и ошибок, используя поощрительные сигналы для подкрепления оптимальных действий.
Агент и среда рассматриваются как независимые сущности, что позволяет чётко разделять состояния, действия и вознаграждения. Среда включает всё, что не является частью агента. По сути, обучение с подкреплением реализует цикл управления с обратной связью, в котором агент и среда обмениваются сигналами, а агент стремится максимизировать целевую функцию [5].
Теперь можно представить формулировку задачи обучения с подкреплением в виде модели Марковского процесса принятия решений (МППР) для своевременной синхронизации баз данных. МППР определяется кортежем из четырех элементов - S, А, Р( ), Л ( ) где:
st е б = {¿о ,¿1 ,¿3 }, где £ набор состояний, ¿о- синхронизация никогда не проводилась, ¿1 - ИР находится в неактуальном состоянии, ¿2 -ИР находится в актуальном состоянии, ¿3 - была проведена синхронизация;
at е А = {ао,а\...ад},а1 = {1,2,...,д}, где А - набор действий, ^
множество действий синхронизации с различными периодами от 1 до д;
+1 I st, at) - функция перехода состояний среды, соответствует Ракт каждого ИР;
Л (st, , +1) - функция вознаграждения среды, представленная
матрицей: Л (st, аг, st+1)
1 ® ® 1
® -11 ® ® -11 ®
В методике задачи обучения с подкреплением используется предположение: функция переходов Р(+1 | , О}) и функция вознаграждений ^ (, О}, +1) недоступны для агентов. Они могут получить информацию об этих функциях только через состояния, действия и вознаграждения, воздействию которых подвергаются на данный момент в среде, то есть через кортежи (, аг, st+1).
Как было ранее сказано агент пытается максимизировать целевую функцию, чтобы формализовать понятие целевой функции, определим отдачу Щг), используя траекторию из эпизода т = (^о, ао, , ат, гт):
т
2 т г
ад = Го +Гг1 +Г г2 + ... + 7 гТ =Ъг гt, (9)
г=0
В выражении (9) отдача определена как дисконтированная сумма вознаграждений на траектории, где у— коэффициент дисконтирования, ^е[0Д]. Тогда целевая функция J (т) становится просто математическим ожиданием отдачи по нескольким траекториям:
Га1 ^ тах
J (т) = Мт~^[^(т)]=Мт
т г
Тг гг
г=о
Р > рдоп (10)
Г акт,г — Г акт
Отдача Я(т) - это сумма дисконтированных вознаграждений за все временные шаги г = 0...Т. Целевая функция J(т) - это отдача, усредненная по нескольким эпизодам. Математическое ожидание предполагает случайный характер выбора действий и поведения среды, то есть при повторных запусках отдача не всегда будет одинаковой. Максимизация целевой функции - то же самое, что и максимизация отдачи. При условии, что вероятность нахождения в актуальном состоянии ИР будет не ниже требуемой вероятности.
Смену состояний для обучения агента для нахождения оптимальных периодов синхронизации можно представить как на рисунке 3.
Рис. 3. Граф смены состояний s под действиями агента a
Агент принимает решение о том, какой период синхронизации использовать на основе текущей информации о состоянии актуальности ИР, полученной после изменения в БД. Этот процесс обучения можно представить как цепочку решений, где агент, может использовать две стратегии: е -жадную стратегию и стратегию Больцмана.
Агент используя s - жадную стратегию, взаимодействует с окружающей средой - базой данных и получает обратную связь в виде вознаграждения. Общий алгоритм обучения с подкреплением на основе s -жадной стратегии представлен на рисунке 4.
Блок 1-3.
Ввод исходных данных для обучения. Настраиваем smjn - параметр для уменьшения значения s и коэффициент уменьшения decay. Это необходимо для обеспечения баланса межу исследованием и эксплуатацией.
Блок 4.
Организация цикла обучения для каждого эпизода, выходом из цикла является завершение обучение.
информационных ресурсов на основе s -жадной стратегии
141
Блок 5.
Генерируется случайное число р в диапазоне [0,1]. Генерация случайного числа р используется для выбора стратегии действия в рамках е -жадной политики. Это число определяет, будет ли агент следовать своему текущему знанию эксплуатации или исследовать новые действия исследования.
Блок 6-8.
Если р<е, агент выбирает случайное действие для исследования, что позволяет улучшить изучение среды и избежать зацикливания на локальных максимумах. Если р> е, агент выбирает действие, которое, является наилучшим на основе текущей таблицы Q (^а*).
Блок 9.
После того как агент выбирает действие (период синхронизации), система на основе модели процесса синхронизации БД АС СН получает вероятность нахождения ИР в актуальном состоянии Ракт. Оценка эффективности действия производится через функцию вознаграждения п, которая зависит от того, как изменился уровень актуальности ИР после применения выбранного действия щ.
Вознаграждение рассчитывается на основе состояния актуальности ИР до и после синхронизации, что выражено через функцию вознаграждения Гь=Я(Бь,аь,Бь+1). Если синхронизация улучшила актуальность ИР т.е.
Ракт — Ракт, агент получает положительное вознаграждение, если ухудшила - отрицательное.
Блок 10.
Обновление Q-значений — это основной процесс в обучении с подкреплением, в ходе которого агент корректирует свои представления о полезности действий в конкретных состояниях на основе опыта взаимодействия со средой. Этот процесс основан на использовании функции Беллма-на, которая задает рекуррентное выражение для обновления значений Q(s,a). После выполнения действия аг в состоянии агент получает информацию о:
следующем состоянии 5г+1, в которое он перешел;
вознаграждении гг, полученном в результате перехода (5Г,аг,5г+1).
Вознаграждение гг отражает полезность выбранного действия для достижения поставленной цели.
Агент использует текущую таблицу Q для оценки максимального значения Q (5г+1, а) среди всех возможных действий а в новом состоянии 5г+1 Это значение понимается как лучший ожидаемый результат, который можно достичь из нового состояния. Затем вычисляется временная разница (ТБ-ошибка) по формуле (11):
8 = г? + утах Q(sг+1, а') - Q(sг, о? ) (11)
а'
ТБ-ошибка показывает разницу между ожидаемым вознаграждением и текущей оценкой полезности действия Q (5г,аг). На основе этой разницы значение Q (5г,аг) обновляется по формуле (12):
Q(^,щ) ^ ,а1) + а-8 (12)
Этот процесс позволяет агенту уточнять свои оценки Q(s,a), принимая во внимание как ранее полученное вознаграждение, так и накопленные данные о будущем.
Обновленное значение Q сохраняется в таблице Q, которая используется в дальнейшем для выбора действий. Такой цикл повторяется для каждого взаимодействия агента со средой, что способствует постепенному улучшению стратегии действий.
Блок 11.
Для обеспечения баланса между исследованием и эксплуатацией параметр е уменьшается по мере работы алгоритма. Снижение е приводит к тому, что система все реже выбирает случайные действия и все чаще использует накопленный опыт.
Блок 12
Агент будет продолжать обучение, выбирая действия и обновляя таблицу Q пока не достигнет определенной сходимости, то есть пока изменения в таблице не станут минимальными или не достигнет предела заданных эпизодов. Сходимость означает, что агент нашел оптимальные
периоды синхронизации для всех состояний ИР, обеспечивая их актуальность р > рдоп
акт акт
Графическое представление обучения при использовании е жадной стратегии представлено на рисунке 7.
Обучение е-жадной стратегий
О 20 40 60 80
Эпизоды
Рис. 5. Обучение по эпизодам с использованием е жадной стратегии.
Для алгоритм выбора действия агента на основе стратегии Больц-мана использует вероятность выбора действия, зависящую от значений
Q (¿,а). Это позволяет агенту исследовать среду, отдавая предпочтение действиям с высокими Q-значениями, но не исключая менее вероятные действия. Общий алгоритм обучения с подкреплением на основе Общий алгоритм обучения с подкреплением на основе стратегии Больцмана представлен на рисунке 6.
Блок 1-3.
Ввод исходных данных для обучения. Дополнительно необходимо установить коэффициент температуры т>0, который управляет степенью случайности выбора действий. Это необходимо для обеспечения баланса межу исследованием и эксплуатацией.
Блок 4.
Организация цикла обучения для каждого эпизода, выходом из цикла является завершение обучение.
Раагмя п
(-¡>0 р1- 1,сьч))- (>(цаД г=-Г
1 Г { п\
= гг (¡есау
-
^ начало ^
Инициализаций^) состояния и агента Л=(а1,а1.л9 }.ЩК(М.—Ш}
5 = (¡щА.*1А )
ализаци^^)
Инициа матрицы наград 0<х,а)=0
Гнперпараыегры обучения 1=0.1. у=0.1. N„^=499,1=0, г=1-0- Лклу О
Выборг в<^а> Р( а ¡1)
0(ч<1>
01
Формирование матрицы наград О *
конец
3
1
0
Рис. 6. Обучение по эпизодам с использованием стратегии Больцмана.
Блок 5.
Для каждого возможного действия а е А в текущем состоянии вычисляется вероятность выбора Р (а\8^. Эта выражение позволяет осуществлять действия с высокими значениями Q (¿*,а) более вероятными, но сохраняет шанс на выбор действий с низкими значениями, особенно при высоком т. Это способствует исследованию среды. Например, при:
т=5:*:[1;2]^^:[0,45;0,55];
i=2:x:[1;2]^p(x):[0,38;0,62]; i=0.5:x:[1;2]^p(X):[0,12;0,88]; i=0.1:x:[1;2]^p(x):[0,00;1,00];
Чем меньше значение т, то действия агента более жадные.
Блок 6.
После того как агент выбирает действие at (период синхронизации), система получает вероятность нахождения ИР в актуальном состоянии Ракт [6]. Оценка эффективности действия производится через функцию вознаграждения rt, которая зависит от того, как изменился уровень актуальности ИР после применения выбранного действия at.
Вознаграждение рассчитывается на основе состояния актуальности ИР до и после синхронизации, что выражено через функцию вознаграждения rt=R(st,at,St+1). Если синхронизация улучшила актуальность ИР т.е.
Ракт > Ракт, агент получает положительное вознаграждение, если ухудшила - отрицательное.
Блок 7.
Обновление Q-значений, соответствуют блоку 10 алгоритма оптимизации периода синхронизации ИР на основе s -жадной стратегии.
Блок 8.
После обновления Q-значений значение т может быть уменьшено для того, чтобы с течением времени стратегия смещалась от исследования к использованию. Будем уменьшать, т экспоненциально:
т-^т-decay,
где decay<1.
Снижение т уменьшает вероятность выбора менее выгодных действий, что позволяет агенту сосредотачиваться на более оптимальных стратегиях.
Блок 9
Агент будет продолжать обучение, выбирая действия и обновляя таблицу Q(s,a), пока не достигнет определенной сходимости, то есть пока изменения в таблице не станут минимальными или не достигнет предела заданных эпизодов. Сходимость означает, что агент нашел оптимальные
периоды синхронизации для всех состояний ИР, обеспечивая их актуальность Р > рдоп
акт акт
Графическое представление обучения при использовании s жадной стратегии представлено на рисунке 7.
Для оценки эффективности разработанной методики и наглядного представления ее этапов разработана в программной среде AnyLogic имитационная модель функционирования ПУ в АС СН, структура которой представлена на рисунке 8 [7].
В результате выполнения второго этапа разработанной методики, связанного с выбором варианта действия агента и обучением с подкреплением, сформировано множество решений по определению оптимальных периодов синхронизации ИР, хранящихся в базах данных. В соответствии
с алгоритмом работы третьего этапа методики проведена организация хранения данных ^-матрицы, отражающей функции полезности для различных состояний и действий. Это позволило построить имитационную модель функционирования системы синхронизации баз данных, учитывающую изменения актуальности ИР в зависимости от выбранных периодов обновления [8]
Обучение эойтах
Рис. 7. Обучение по эпизодам с использованием стратегии Больцмана.
О
ИР1
ИР2 ИРЗ ИР4 ИР5
ИСУСБД
ир
1°°- О
отдел N53
I? СГ—ЛЯ I
о о
151-
БЛОК ПЕРЕДАЧИ ПО ТСС
о
I БД
" О
БЛОК ПЕРЕДАМИ ПО ТСС
151
♦ О
0_табл ица
1° □
1° □
Таи1
ИСУСБД
БЛОК ПЕРЕДАЧИ ПО ТСС
~ о
БЛОК ПЕРЕДАЧИ ПО ТСС
да-
©
0_таблица1
Рис. 8. Структура имитационной модели пункта управления автоматизированной системы специального назначения в программной среде AnyLogic
146
Проведём оценку эффективности методики на примере проведения учений «Север» 1-му мотострелковому батальону была поставлена задача по развертыванию обороны на ключевых позициях. Учения длились 7 суток. В процессе выполнения задачи на ПУ батальона поступали донесения о состоянии различных систем связи. В первый день учений из-за неблагоприятных погодных условий было выведено из строя 80 единиц оборудования связи. На рисунке 9 красным цветом показана вероятность актуальности информации о состоянии систем связи в ПУ батальона.
Отчёты о повреждении оборудования были занесены в базу данных в течение двух часов, но их синхронизация с вышестоящими ПУ произошла лишь через 24 часа, согласно установленному графику обновлений. На четвертый день, во время интенсивных маневров, произошло существенное изменение в состоянии оборудования связи, однако эти данные были зафиксированы на ПУ только через 24 часа из-за установленного регламента. Применение методики позволило своевременно выявлять устаревшую информацию и проводить синхронизацию, что показано зелёным цветом.
24 48 72 120 168 216 264
Рис. 9. Контрольный пример применения методики
В результате применения алгоритма обновления ^-значений на основе функции Беллмана были выявлены оптимальные параметры периодов синхронизации для обеспечения требуемой степени актуальности данных. Графическое представление зависимости своевременности синхронизации БД от выбранных периодов обновления ИР представлено на рисунке 10.
Для оценки эффективности применения разработанной методики предлагается применить следующий математический аппарат [9]:
Е
те
Р-
Р
1
х 100%
(13)
1 К д
Р1 = — X Рсв,1 ®(Ракт,1 > Ракт ), Р1 - вероятность своевременной синхро-=1
низации БД без использованием разработанной методики, N - количество ИР, Ракт 1 - вероятность актуальности 1-го ИР с регламентными периодами синхронизации, Р^ - допустимый уровень актуальности ИР,
®(Р ■> Р доп ) = М 1 акт ,1 — 1 акт /
1 если Р ■ > Рдоп
акт,1 акт' - индикаторная функция;
0, иначе
1 N д
Р2 = Т7 X Рсв ®(Ракт > Р'акИ ), Р2 - вероятность своевременной синхро-
N ■=1
низации БД с использованием разработанной методики, N - количество ИР, Ракт 1 - вероятность актуальности 1-го ИР с оптимальными периодами
синхронизации, Р^™ - допустимый уровень актуальности ИР,
1,если Р ■ > Рдоп,
акт,1 акт' - индикаторная функция; Ете
0, иначе
&(Р > Рдоп ) =
акт,1 акт
- показатель эффективности использования разработанной методики.
Графики для разных Рщ_аор
1.0 -
0 9 -
0 8 -
0,7
0.6
£ 0.5
0 4 -
0.3 -0.2 0 1 0 0 -
Тог = Тог РаЫ_<1вр = 0,7 0.8 0.9
- — р
- Р-: г НОГ =
1 2 3 4 5 6 7 а 9 10 11 12 13 14 15 16 17 1В 19 20 21 22 23 24
Я*
Рис. 10. Зависимость своевременности синхронизации баз данных от выбранных периодов обновления информационных ресурсов
Результаты оценки эффективности применения разработанной методики представлены в таблице.
Оценка эффективности разработанной методики
Требование рдоп ракт Количество ИР i Значение без использования методики P1 Значение с использованием методики P2 E %
0,7 15 0,73 0,80 10
0,8 15 0,60 0,73 22
0,94 15 0,20 0,80 30
В результате проведенного исследования предложена методика повышения своевременности синхронизации баз данных для автоматизированных систем специального назначения. Методика базируется на использовании обучения с подкреплением для оптимизации периодов синхронизации и включает четыре основных этапа. Практическая апробация методики показала её эффективность в улучшении актуальности данных и минимизации временных задержек. Использование данной методики позволяет значительно повысить оперативность и точность принятия управленческих решений за счёт своевременного обновления информационных ресурсов. Дальнейшие исследования могут быть направлены на расширение функционала методики и её адаптацию к различным типам автоматизированных систем.
Список литературы
1. Удальцов А.В. Синхронизация баз данных в системах военного управления / А.В. Удальцов, Д.Д. Корякин, И.Б. Саенко // Современное состояние и перспективы развития инфокоммуникационных сетей связи специального назначения: Сборник материалов научно-практической конференции, Санкт-Петербург. 2023. С. 81-87.
2. Анфилатов В.С. Теоретические основы автоматизации управления войсками и связью. Часть 1. Системные основы автоматизации управления войсками и связью: учебное пособие / В.С. Анфилатов, В.С. Авра-менко, О.И. Пантюхин. СПб.: ВАС, 2014. 312 с.
3. Гончаров А.А. Метод восстановления модели процессов во встроенных системах по журналу событий / А.А. Гончаров, С.В. Быковский // Известия высших учебных заведений. Поволжский регион. Технические науки. 2023. № 3(67). С. 5-17.
4. Саттон Р.С., Барто Э. Дж. Обучение с подкреплением: Введение. 2-е изд./пер. с англ. А.А. Слинкина. М.: ДМК Пресс, 220. 552 с.
5. Грессер Л., Кенг В.Л. Глубокое обучение с подкреплением: теория и практика на языке Python. СПб.: Питер, 2022. 416 с.
6. Удальцов А.В. Модель оценивания актуальности информации в базах данных автоматизированных систем специального назначения // Известия Тульского государственного университета. Технические науки. 2024. № 12. С. 140-145.
7. Карпов Ю. Имитационное моделирование систем. Введение в моделирование с AnyLogic 5. СПб.: БХВ-Петербург, 2005. 400 с.
8. Бирюков М.А Имитационный подход к моделированию системы разграничения доступа к единому информационному пространству / М.А. Бирюков, А.А. Брунилин, И.Б. Саенко // Актуальные проблемы инфотеле-коммуникаций в науке и образовании. Сборник научных статей: в 4-х томах. 2017. С. 78-83
9. Саенко И.Б. Анализ проблемы синхронизации локальных баз данных в распределенной информационной системе / И.Б. Саенко, А.В Ермаков, А.В. Удальцов // Труды научно-исследовательского института радио. Санкт-Петербург. 2022. С. 37-41.
Удальцов Александр Владимирович, адъюнкт, [email protected], Россия, Санкт-Петербург, Военная академия связи имени Маршала Советского Союза С.М. Буденного
METHODS FOR IMPRO VING TIMELINESS SYNCHRONIZA TION OF A UTOMA TED DATABASES SPECIAL PURPOSE SYSTEMS BASED ON MACHINE LEARNING
A.V. Udaltsov
The article discusses a technique for improving the timeliness of database synchronization in automated special-purpose systems. The methodology includes monitoring the relevance of information resources and using reinforcement learning to optimize synchronization periods. The proposed algorithms and methods can significantly improve the timeliness of data synchronization between control points, which minimizes the risks of making incorrect management decisions. The effectiveness of the technique is confirmed by the example of a simulation model.
Key words: database synchronization, information relevance, decision support system, information resources, simulation modeling, AnyLogic.
Udaltsov Alexander Vladimirovich, adjunct, [email protected], Russia, Saint Petersburg, Military Academy of Communications named after Marshal of the Soviet Union S.M. Budyonny