Научная статья на тему 'ОБЗОР КЛЮЧЕВЫХ ТЕХНОЛОГИЙ РОБОТОТЕХНИКИ'

ОБЗОР КЛЮЧЕВЫХ ТЕХНОЛОГИЙ РОБОТОТЕХНИКИ Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
3
0
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
робототехнический комплекс / биоморфный робот / искусственный интеллект / система технического зрения / предиктивная аналитика / сверточные нейронные сети / robotic complex / biomorphic robot / artificial intelligence / vision system / predictive analytics / convolutional neural networks.

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Охотников Андрей Леонидович, Зажигалкин Александр Владимирович

В статье дано описание применяемых технологий для разработки роботов и робототехники, включая искусственный интеллект. Проведена оценка современного состояния отечественной робототехники. Перечислены перспективные направления работ по роботизации производственных процессов в ОАО «РЖД». Проведен анализ современных алгоритмов и моделей обработки сенсорных данных и требовании к сверточным нейронным сетям (CNN) для систем технического зрения. Предложены направления перспективных исследований в области развития робототехнических систем и комплексов в железнодорожной сфере.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

OVERVIEW OF KEY TECHNOLOGIES OF ROBOTECHNICS

The article describes the applied technologies for the development of robots and robotics, including artificial intelligence. The current state of domestic robotics is assessed. Promising areas of work on robotisation of production processes in JSC ‘Russian Railways’ are listed. Modern algorithms and models of sensor data processing and requirements to convolutional neural networks (CNN) for vision systems are analysed. The directions of prospective research in the field of development of robotic systems and complexes in the railway sector are proposed.

Текст научной работы на тему «ОБЗОР КЛЮЧЕВЫХ ТЕХНОЛОГИЙ РОБОТОТЕХНИКИ»

УДК: 001.895; 621.865.8, 629.066 DOI 10.24412/2413-7383-141 -155

А. Л. Охотников1, А. В. Зажигалкин2

1АО «Научно-исследовательский и проектно- конструкторский институт информатизации,

автоматизации и связи на железнодорожном транспорте» (АО «НИИАС»),

109029, г. Москва, ул. Нижегородская, д. 27, стр. 1.

2ФГАОУ ДПО «Академия стандартизации, метрологии и сертификации»,

109443, г. Москва, Волгоградский проспект, д. 90, корп. 1.

ОБЗОР КЛЮЧЕВЫХ ТЕХНОЛОГИЙ РОБОТОТЕХНИКИ

A. L. Okhotnikov1, A.V. Zazhigalkin2

JSC 'Research and Design Institute of Informatisation, Automation and Communication on

Railway Transport' (JSC NIIAS),

109029, Moscow, 27, Nizhegorodskaya str. 1.

2FGAOU DPO «Academy of Standardisation, Metrology and Certification», 109443, Moscow, Volgogradsky Prospekt, 90, bldg. 1.

OVERVIEW OF KEY TECHNOLOGIES OF ROBOTECHNICS

В статье дано описание применяемых технологий для разработки роботов и робототехники, включая искусственный интеллект. Проведена оценка современного состояния отечественной робототехники. Перечислены перспективные направления работ по роботизации производственных процессов в ОАО «РЖД». Проведен анализ современных алгоритмов и моделей обработки сенсорных данных и требовании к сверточным нейронным сетям (CNN) для систем технического зрения. Предложены направления перспективных исследований в области развития робототехнических систем и комплексов в железнодорожной сфере. Ключевые слова: робототехнический комплекс, биоморфный робот, искусственный интеллект, система технического зрения, предиктивная аналитика, сверточные нейронные сети.

The article describes the applied technologies for the development of robots and robotics, including artificial intelligence. The current state of domestic robotics is assessed. Promising areas of work on robotisation of production processes in JSC 'Russian Railways' are listed. Modern algorithms and models of sensor data processing and requirements to convolutional neural networks (CNN) for vision systems are analysed. The directions of prospective research in the field of development of robotic systems and complexes in the railway sector are proposed. Key words: robotic complex, biomorphic robot, artificial intelligence, vision system, predictive analytics, convolutional neural networks.

Введение

Ключевыми аспектами «Индустрии 5.0» являются интеграция искусственного интеллекта, интернета вещей (IoT), больших данных и облачных технологий [1]. Эти инструменты позволяют создавать более гибкие и адаптивные производственные системы и ускоряют процесс роботизации. Однако, простое внедрение этих технологий недостаточно для достижения истинного потенциала «Индустрии 5.0». Критически важен переход к человекоцентричной модели, где синергия между человеком и машиной становится движущей силой инноваций и повышения производительности. Этот подход предполагает не замену человека машиной, а расширение человеческих возможностей за счет интеллектуальной автоматизации в современной парадигме цифровой экономики и промышленности [2].

Рост масштабов автоматизации процессов и взаимодействия человека и робота, использования современных устройств и технологий, приводят к дальнейшему росту интереса к применению таких устройств, анализу их составляющих и потребности углубленного анализа этого взаимодействия. Очевидно, что описание этих вопросов будет полезным, как для специалистов различного профиля, так и для студентов, которые предметно изучают новые научные направления о роботах, робототехни-ческих и информационных системах.

Кроме того, учитывая широкий спектр промышленного применения роботов, в статье сделана попытка описания будущих исследований и изысканий, учитывающих различные сценарии использования робототехнических средств и комплексов (РТК) в повседневной жизни человека.

Ключевые технологии для робототехники

Высокоэффективная автоматизация, формирование полноценных киберфизиче-ских систем, в свою очередь, невозможны без использования ряда новых и становящихся ключевыми для роботизации технологий. В настоящее время перспективными и необходимыми технологиями и системами для развития робототехники становятся:

• Искусственный интеллект (ИИ). Нейросети помогают роботам решать новые и уникальные задачи и создают системы на базе знаний с логикой человека.

• Техническое зрение. Разработка алгоритмов и сенсоров (камеры, лидары, датчики и др.), способных к точной и надёжной интерпретации окружающей информационной ситуации и предсказанию поведения объектов.

• Бортовые вычислительные системы. Используются для проведения сложных математических расчетов и разделяются на специальные компьютеры, микроконтроллеры, ПЛИСы, а также аппаратные ускорители: графические процессоры (GPU) специализированные интегральные схемы (ASIC), программируемые пользователем вентильные матрицы (FPGA).

• Системы управления и взаимодействия. Разработка передовых алгоритмов управления, захватов и другого оборудования для взаимодействия с окружающей средой. Управление возможно в автоматическом и автоматизированном режимах.

Современное состояние отечественной робототехники

Согласно отчету World Robotics 2023 от Международной федерации робототехники (IFR), лидерами по плотности роботизации стали Южная Корея (1012 роботов на 10 тыс. сотрудников), Сингапур (730 роботов) и Германия (415 роботов) [3]. По ста-

тистике Национальной ассоциации участников рынка робототехники в России показатель составляет 10 роботов на 10 тыс. человек в 2022 году, в 2016 году этот показатель равнялся всего 3 роботам.

На Петербургском международном экономическом форуме (ПМЭФ-2024) президентом страны была поставлена задача войти в ТОП-25 стран-лидеров роботизации и установить более 100 тысяч роботов на промышленных предприятиях. Таких показателей возможно достичь в 2030 году при благоприятном сценарии развития нашей экономики и промышленности (рис.1).

Прогноз динамики для выхода на целевые показатели __

63 787 89 301,

1 Базовый сценарий | Инерционный сценарий 45 5§>

14 чя? 17 258 16 800

6073 6851 8 316 «300 — - I-1 I-1 I-1 I I I рзвоо] 14 800 15 800

I I I I I I I I I I I I

2019 2020 2021 2022 2023 2024 2025 2026 2027 2028 2029 2030

Рисунок 1 - Рынок промышленной робототехники в России (требуемое количество, шт.)

В настоящий момент на отечественном рынке присутствует более 60 компаний, которые разрабатывают и производят компоненты для робототехнических комплексов, в частности электромеханические и электронные компоненты серводвигателей, энко-деры, сервоприводы, контроллеры, силомоментные датчики, лидары, навигационные датчики, волновые редукторы и дифференциалы для современной отечественной робототехнической и машиностроительной промышленности и проч.

Российские производители уже выпускают порядка 20 видов роботов, которые можно разделить по грузоподъёмности от 5 кг, далее с шагом по 5 кг до 30 кг, далее с шагом 10 кг до 100, далее до 120, 150, 500, 1500 и 3500 кг. Порядка 15 видов роботов в разработке.

Для железной дороги в стадии НИОКР находятся роботы для расцепки железнодорожных составов на сортировочных станциях от АО «НПО «Андроидная техника» РТК «Расцепщик» и в опытной эксплуатации от ООО «Р-Телематика» находится робот РТК «ГОРАН», работа которого была продемонстрирована в октябре 2024 года на станции Челябинск-Главный (рис. 2). В 2026 году планируется подготовить к опытной эксплуатации РТК «Диагност» для диагностики литых деталей тележек вагонов и колесных пар вагонов железнодорожных составов на сортировочных станциях и промышленных площадках. Технология работы комплексов предполагает их перемещение вдоль рельсовой линии, распознавание необходимых объектов интереса средствами технического зрения и воздействие на них при помощи соответствующих манипуляторов. Новые устройства позволяют убрать из опасной зоны человека, исключить влияние человеческого фактора на производственные процессы, а также ускорить обслуживание грузовых поездов на станции [4].

Рисунок 2 - Расцеп вагонов с помощью манипулятора РТК на сортировочной горке

станции Челябинск-Главный

Перспективные направления работ по роботизации производственных процессов в ОАО «РЖД»:

- диагностика состояния литых деталей грузовых вагонов;

- процесс очистки внутренних поверхностей грузовых вагонов;

- соединение тормозных рукавов грузовых вагонов;

- обнаружение и измерение обледенения, очистка от снега и льда подвижного состава в условиях ПТОЛ;

- оценка: плотности прилегания остряка к рамному рельсу с функцией восстановления контроля; чувствительности рельсовых цепей; сопротивления в токопроводящих и изолирующих стыках;

- открытие люков полувагонов для выгрузки груза;

- проведение ренновации рельс;

диагностика и ремонт элементов контактной сети;

- инспекция железнодорожного пути и подвижного состава;

- покраска и ремонт элементов подвижного состава;

- картографирование;

- мониторинг растительности вдоль путей;

- мониторинг стихийных бедствий.

Алгоритмы и модели обработки сенсорных данных для роботов

Для обнаружения объектов системами технического зрения (далее - объектов интереса) на железной дороге определим следующие элементы:

- подвижной состав и его техническое состояние при коммерческом осмотре;

- объекты инфраструктуры и их состояние;

- груз, его погрузка, разгрузка и сортировка;

- технологический процесс, в т.ч. расцепка вагонов, отпуск тормозов, соединение тормозных рукавов, очистка вагонов, экипировка и т.д.

Для оценки и диагностики подвижного состава и железнодорожной инфраструктуры помимо роботизированной (в том числе, биоморфной) платформы, куда могут крепится сенсоры и манипуляторы, необходимо иметь достаточную по мощности и быстродействии вычислительную информационную систему. Такая система позволит обработать большой массив сенсорных данных и сможет предложить решение как для построения маршрута движения и обхода препятствий, так и для обнаружения объектов при поиске неполадок и технических несоответствий для оборудования и технических систем. Интеграция ключевых технологий, в том числе машинного обучения и средств технического зрения требует от информационных систем, входящих в РТК, обрабатывать огромные объемы данных в режиме реального времени как на борту (периферийный ИИ), так и удаленно используя облачную инфраструктуру или стационарный вычислитель, выявляя закономерности и аномалии, которые требуют принятия определенных решений [5].

При управлении сложными данными и элементами управления для робота необходима операционная система, которая предлагает конечным пользователям уровень абстракции, позволяющий легко встраивать сенсорные данные. Для этого применяют роботизированные операционные системы, такие как ROS2. Такая система использует топическую (когнитивную) модель, которая позволяет различным управляющим программам получать новые знания по мере поступления данных сенсорных датчиков, обеспечивая их асинхронное выполнение.

Рассмотрим современные алгоритмы и модели для обнаружения роботами объектов интереса и их диагностики. Для оценки объектов интереса на железной дороге применяются передовые методы глубокого обучения на основе технического зрения. Успех искусственных нейронных сетей (ИНС) при обучении на больших наборах данных без необходимости ручного проектирования признаков продемонстрировал многообещающие результаты в области технического зрения [6]. Считалось, что, стремясь к внедрению ИНС, большие наборы данных, содержащие миллионы изображений (датасетов), могут быть использованы для обучения сверточных нейронных сетей (CNN - Convolutional Neural Networks). Это вариант ИНС, способный к улучшенному восприятию, обеспечивающий лучшую визуальную производительность, устойчивость к вариациям без необходимости ручного ввода дескриптора признаков [7]. С помощью больших наборов обучающих данных CNN фокусируются на преобразовании многомерных входных данных в низкоразмерные, но высоко абстрактные семантические выходные данные для точной классификации.

Для использования CNN в области технического зрения необходимо учитывать ряд требований, в том числе к аппаратным средствам роботизированных платформ [8] :

Масштабируемость и параллельные вычисления.

Требования к памяти.

Вычислительные требования.

Энергоэффективность.

Гибкость развертывания.

Для обнаружения и идентификации объектов применяются различные архитектуры и модели, в основе которых используются CNN. Рассмотрим наиболее часто встречающиеся.

R-CNN считается одной из первых архитектур обнаружения объектов на основе CNN. Модель придерживается двухступенчатой структуры обнаружения: сначала создает разреженный набор потенциальных ограничивающих прямоугольников из входного изображения, а затем переходит на второй этап - подавление и выбор наиболее релевантных предложений-кандидатов для определения выходных данных.

Его преемник, Fast R-CNN [9], в 2015 году представил механизм объединения областей интересов (RoI) когда получение вектора признаков фиксированной длины для каждого свойства объекта было ограничено одной сверточной операцией.

Для обработки сенсорных данных от систем технического зрения с 2016 года стали использоваться передовые детекторы объектов на базе глубоких сверточных нейронных сетей (например, Faster R-CNN [10], SSD-513 [11], YOLO [12] и R-FCN [13]). В сочетании с глубокими нейронными сетями для классификации изображений, такими как ResNet [14], Inception-v4 и Inception-ResNet [15], роботы способны обнаруживать, классифицировать и картировать любой компонент объекта интереса.

Несмотря на то, что двухступенчатые подходы, такие как R-CNN, Faster R-CNN и Mask R-CNN, позволяют достичь высокой точности обнаружения, затраты на вычисления достаточно высоки, что затрудняет их использование в задачах обнаружения и диагностики в режиме реального времени. В таком случае одноступенчатые методы, такие как серия YOLO, могут обеспечить высокую скорость обнаружения с высокой точностью.

Представленная в 2016 году модель YOLO, в которой обнаружение объектов было представлено как регрессионная задача, а не классификация, обеспечила новый этап развития моделей для обнаружения и идентификации объектов.

Выпущенные в 2018 году YOLOv3 и YOLOv4 позволили квантовать различные концепции, включая перекрестную мини-пакетную нормализацию (CMBN), межступенчатые частичные соединения и Mish-активацию.

YOLOv5 был выпущен через репозиторий Github, в отличие от традиционного подхода, примерно через месяц после YOLOv4.

Следующим значительным шагом стала модель YOLOv6, первоначально выпущенная как кодовая база, была представлена в июне 2022 года, за ней последовала обновленная версия, которая была опубликована в статье в сентябре 2022 года [16]. Далее были представлены различные варианты YOLOv6, предназначенные для различных промышленных приложений, от YOLOv6-Nano (скорость адресации) до YOLOv6-Large (точность адресации).

В YOLOv7 [17] авторы стремились повысить скорость и точность за счет реализации ряда реформ на архитектурном уровне и масштабировании магистрали.

В январе 2023 года компания Ultralytics представила YOLOv8 - детектор объектов для задач компьютерного зрения [18]. YOLOv8 стал более удобным для пользователей благодаря своим функциям, включая удобный интерфейс командной строки и хорошо структурированный пакет Python.

В феврале 2024 года Wang et al. [19] представили YOLOv9, в котором представлены две ключевые инновации: фреймворк Programmable Gradient Information (PGI) и Generalized Efficient Layer Aggregation Network (GELAN). Фреймворк PGI фокусируется на проблеме узких мест информации в глубоких нейронных сетях, обеспечивая совместимость с облегченными архитектурами и повышая точность производительности. PGI гарантирует надежное распространение градиентной информации во время обучения, улучшая способность к обучению и точность прогнозирования. GELAN основан на принципах оптимизации градиентного пути CSPNet [20] и ELAN [21], балансируя между

легкостью модели, скоростью вывода и точностью. Такая конструкция позволяет GELAN стабильно работать в различных вычислительных блоках и конфигурациях глубины, что делает ее пригодной для развертывания на периферийных устройствах с ограниченными ресурсами.

Выпущенный в мае 2024 года исследователями из Университета Цинхуа, YOLOvlO представлял собой существенный шаг вперед в обнаружении объектов в реальном времени [22]. Эта архитектура решает проблему баланса между точностью и эффективностью вычислений с помощью инновационных стратегий обучения и архитектурных модификаций. Основная концепция включает в себя «последовательные двойные назначения» во время обучения, что позволяет модели обучаться на основе богатого контроля, устраняя при этом необходимость в дорогостоящем вычислительно емком подавлении (NMS) во время вывода, что значительно сокращает время обработки. YOLOv10 повышает эффективность с помощью модуля Parallel Split-Attention (PSA) и блока Compact Inverted Bottleneck (CIB), обеспечивая эффективную многомасштабную обработку признаков и эффективные механизмы внимания.

Обширные оценки показывают, что YOLOv10 превосходил предыдущие версии YOLO и другие современные модели по соотношению точности и эффективности. Например, как показано в таблице 1, YOLOvlO-B уменьшает задержку и количество параметров по сравнению с YOLOv9-C с эквивалентной производительностью. Кроме того, варианты YOLOvlO-L и YOLOvlO-X превосходят свои аналоги YOLOv8 по точности, требуя при этом меньше входных параметров.

Таблица 1. Метрики производительности моделей YOLOvlO [23].

Model Size (Pixels} АР*а1 {%] FLOPS (G) Latency (ms)

YOLCviO-N 640 за. 5 6.7 1.84

YOLOvl Q-S 640 46.3 21 6 2 49

YOLOvl 0-M 640 51.1 59.1 4.74

YOLOvlO-В 640 52.5 92.0 5.74

YOLOvlO-L 640 53.2 1203 7.2В

YOLOvl 0-X 640 54 4 1604 10.70

Серия YOLOvl 1 - это самая современная, самая лёгкая и эффективная модель в

семействе YOLO, превосходящая своих предшественников [24]. Она была создана компанией Ultralytics, которая выпустила YOLOv8 - самый стабильный и широко используемый на сегодняшний день вариант YOLO. YOLOvll построена на основе кодовой базы Ultralytics YOLOv8 с некоторыми архитектурными изменениями. Модель интегрирует новые функции (дорабатывая эти функции) из предыдущих версий YOLOv9 и YOLOvlO для повышения производительности. Свёрточные слои YOLOvll имеют аналогичную структуру с начальными свёрточными слоями для понижения разрешения изображения.

Компания Ultralytics выпустила пять моделей YOLOvll в зависимости от размера и 25 моделей для всех задач:

• YOLOv11-N - Nano для небольших и легковесных задач.

• YOLOv11-S - небольшое обновление Nano с повышенной точностью.

• YOLOv11-M - среда общего назначения.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

• YOLOv11-l - большой размер для более высокой точности и производительности.

• YOLOv11-X - сверхбольшая модель для максимальной точности и производительности.

Данная модель может выполнять различные функции технического зрения, которые включают в себя пять задач:

1) Обнаружение объекта.

2) Сегментация экземпляров.

3) Классификация и идентификация изображений - модель обучается на ImageNet, который включает 1000 предварительно обученных классов.

4) Оценка положения объекта (пока на одном обученном классе объекта -«человек»).

5) Обнаружение ориентированных объектов (OBB) - модель обучается на DOTAvl, которая включает 15 предварительно обученных классов.

YOLOvll демонстрирует более высокую производительность, особенно в серии моделей Nano. Несмотря на большее количество параметров, YOLOv11-N превосходит YOLOvlO-N по скорости вывода и количеству кадров в секунду, что делает его высокоэффективной моделью для приложений реального времени без ущерба для точности или вычислительной эффективности.

Примеры применения технического зрения для диагностики на железной дороге

На сегодняшний день применение методов быстрого обнаружения и диагностики объектов с использованием глубокого обучения в области технического обслуживания железных дорог является еще редкостью. В [25] предложен метод распознавания и диагностики, основанный на глубоком обучении и обработке изображений, используя алгоритм YOLOv5 для классификации и распознавания объектов. В [26] предложен двухступенчатый метод распознавания целей, основанный на глубоком обучении, что еще больше улучшило производительность обнаружения. Задача распознавания на железной дороге состоит из двух этапов. На первом этапе разрабатывается модифицированная модель YOLOv3 для предоставления исходной информации для обнаружения. На втором этапе используется гибридная модель, основанная на логике предметной области. Данная логика состоит из модулей калибровки проблемной области и эталонной области.

В [27] предложен метод локализации и распознавания объектов интереса, основанный на технологии компьютерного зрения, для автоматической сборки скреплений на автоматических производственных линиях. Промышленная камера используется для получения исходного изображения объекта, а затем изображение обрабатывается с помощью методов обнаружения краев и преобразования круга Хафа для получения координат объекта. Таким образом поиск объекта интереса осуществляется в соответствии с координатами объекта относительно поверхности, где он расположен.

Для повышения производительности моделей в [28] предлагается алгоритм DSM-IDM-YOLO, который объединяет модули разделяемой по глубине свертки (DSM) и начальной глубокой свертки (IDM) для захвата широкого спектра характеристик объекта. Эти модули встроены в различные уровни YOLOv2 для повышения производительности модели. Основываясь на YOLOv3, в [29] предложен алгоритм AVS-YOLO, который может улучшить производительность модели за счет внедрения плотно связанной

пирамиды признаков и масштабируемого модуля внимания. Также создание высококачественных аннотированных наборов данных напрямую влияет на производительность моделей машинного обучения, что делает эффективное программное обеспечение для аннотирования данных важным компонентом исследований и разработок в области искусственного интеллекта [30].

В [31] рассмотрен метод быстрого обнаружения состояния падения предметов на путь, основанный на улучшенной версии YOLOv5s. Асимметричные блоки свертки (ACB) используются в магистральной сети вместо исходного Conv для улучшения процесса извлечения признаков. Далее был внедрен модуль механизма пространственного внимания для повышения точности обнаружения. В [32] описана модель обнаружения отвлечения машиниста от вождения на основе YOLOvl. Модифицированная модель повышает общую производительность YOLOvl за счет использования механизма глобального внимания и расширения данных на основе многоканальности. Эффективная модель обнаружения дефектов поверхности рельса представлена в [33]. Процесс слияния признаков объекта интереса заменен на невзвешенную структуру BiFPN, что позволяет максимально эффективно использовать информацию о признаках объекта и свести к минимуму потерю ценных данных.

Несмотря на то, что исследования в области методов повышения точности для диагностики достигли существенных успехов, остается огромный простор для повышения скорости вычислений. Например, предлагается облегченная модель обнаружения объектов интереса под названием FSS-YOLO [34]. По сравнению с другими конкурентными моделями, она демонстрирует огромный прирост производительности при значительном снижении требований к аппаратному обеспечению.

Немецкие ученые из Мюнхена использовали программируемую логическую интегральную схему в конфигурации FPGA (Field Programmable Gate Array) как аппаратный ускоритель, способный к параллельному вычислению большого объема данных от множества интегрированных датчиков, значения которых помещаются в общую очередь и доступны в цифровом виде для использования исполнительными механизмами робота [35]. Несмотря на то, что подход авторов учитывает потребность в параллельной обработке сенсорных данных, FPGA часто громоздкие и жесткие, что не подходит для всех видов роботов, например, биоморфных.

Заключение

Проведенный анализ развития и применения технологий для робототехнических комплексов и различных видов роботов, включая биоморфные, позволяет сформулировать направления будущих научных прикладных исследований.

Распространение архитектур, основанных на обнаружении объектов. Из анализа становится ясно: обширная индустрия исследований в области компьютерного зрения сосредоточена на внедрении и совершенствовании алгоритмов обнаружения объектов. На это есть несколько причин. Во-первых, он более эффективен в практических сценариях по сравнению с классификацией изображений. Это связано со способностью детекторов объектов не только определять, находится ли интересующий объект в кадре изображения, но и извлекать пространственные размеры конкретного объекта. Это открывает множество возможностей для различных областей применения, таких как промышленное производство, где обнаружение и локализация объектов могут привести к внешнему срабатыванию.

Развитие архитектуры YOLO. С момента своего создания в 2015 году, без сомнения, семейство архитектуры YOLO было самым популярным, достигнув значимых результатов к сентябрю 2024 года для версии YOLOvll. Успех YOLO можно объяснить тем, что его авторы постоянно сосредоточены на оптимизации двух ключевых показателей, необходимых для развертываемых решений, то есть точности и легких вычислений, что приводит к более высокой скорости вывода. Кроме того, то, что казалось неудачей для семейства YOLO после того, как первоначальный автор приостановил дальнейшую разработку, сославшись на проблемы с конфиденциальностью, стало скрытым благословением, поскольку различные исследователи и известные исследовательские группы активно и неукоснительно занимались дальнейшей архитектурной оптимизацией. Это соперничество можно приравнять к гонке вооружений, в которой различные исследовательские организации соревнуются за превосходство на арене обнаружения объектов, прекрасно зная о большом спектре потенциальных применений, которые могут извлечь выгоду из легкого обнаружения в режиме реального времени.

Качество набора данных. Качество наборов данных имеет решающее значение для производительности моделей классификации изображений и обнаружения объектов. В промышленных исследованиях получение больших объемов репрезентативных данных может быть сложным, дорогостоящим и трудоемким. Дефицит данных, особенно в таких областях, как обнаружение дефектов продуктов, представляет собой серьезную проблему. Получение достаточного количества образцов дефектов часто требует производства потенциально дефектной продукции, что влечет за собой финансовые и этические проблемы. Чтобы смягчить эти проблемы, в будущих исследованиях следует изучить передовые методы дополнения данных, генерацию синтетических данных, а также использование незначительного или нулевого обучения и генеративного ИИ для масштабирования соответствующих выборок данных.

Архитектурная эффективность. Внедрение CNN в промышленные приложения, такие как контроль качества и обнаружение дефектов, обещает дальнейшее развитие успехов [36]. Однако эти направления часто сталкиваются с ограничениями на вычислительные ресурсы, что затрудняет развертывание моделей, требующих больших вычислительных ресурсов. Облегченные сети с помощью таких стратегий, как механизмы точечной оценки и методы сжатия моделей, а также обрезка и квантование, предлагаются как достаточно привлекательное решение. Эти подходы позволяют значительно снизить вычислительную нагрузку без ущерба для точности, и эффективно и результативно внедрять CNN в условиях ограниченных ресурсов.

Оптимизации алгоритмов обнаружения и идентификации объектов. Актуально особенно для новых приложений, таких как автономные транспортные средства, интеллектуальные системы видеонаблюдения и транспортные системы. Слияние методов обнаружения объектов с взаимодополняющими областями, такими как обработка естественного языка (NLP), робототехника и дополненная реальность (AR), открывает значительные возможности для междисциплинарных исследований и инноваций. Например, сочетание обнаружения объектов с NLP может способствовать более интуитивному взаимодействию человека и компьютера, в то время как его интеграция с робототехникой обещает улучшить автоматизацию и эффективность в различных промышленных условиях.

Междисциплинарное использование роботов. Используя технологии для обнаружения и идентификации объектов, исследователи могут внести свой вклад в развитие диагностики по различным направлениям: в медицинской визуализации, мониторинге окружающей среды и дистанционном зондировании, для диагностики подвижного состава, железнодорожной автоматики и сигнализации, объектов инфра-

структуры, для реагирования на стихийные бедствия и усилия по сохранению окружающей среды. Кроме того, появление периферийных вычислений и Интернета вещей открывает новые возможности для развертывания архитектур обнаружения и идентификации объектов в средах с ограниченными ресурсами, что позволяет принимать решения в режиме реального времени и осуществлять интеллектуальную автоматизацию на периферии сети. По сути, будущее исследований в области обнаружения и идентификации объектов заключается в использовании их потенциала для решения реальных проблем в различных проблемных областях, одновременно продвигая фундаментальные принципы технического зрения. Внедряя междисциплинарное сотрудничество и инновации, исследователи могут открыть новые горизонты в обнаружении и идентификации объектов, прокладывая путь к революционным приложениям, которые улучшают нашу жизнь и формируют будущее визуальной автоматизации с помощью повсеместной роботизации.

Список литературы

1. Xu, S.; Lu, Y.; Vogel-Hauser, B.; Wang, L. Industry 4.0 and Industry 5.0-Origin, concept and Perception. J. Manuf. Syst. 2021, 61, p.530-535.

2. Nahavandi, S. Industry 5.0 - A human-centric solution. Sustainability 2019, 11, 4371. doi:10.3390/su11164371.

3. Golomidov, A. R. New robotic technologies and their applications / A. R. Golomidov, A. B. Ostapenko // Technical and natural science research in Russia and abroad: from theory to practice: Collection of scientific articles. Krasnodar: Individual Entrepreneur Viktor Kabanov (izdatelstvo «Novatsiya»), 2024. P. 102-105.

4. Кудюкин, В. В. Роботизация как необходимый элемент повышения эффективности процесса железнодорожных перевозок // Транспорт Российской Федерации. 2023. № 1-2(104-105). С. 13-16.

5. Keisang, K. Bader, T. Samikannu, R. Review of operation and maintenance methodologies for solar photovoltaic microgrids. Front. Energy Res. 2021, 9, 730230.

6. Abiodun, O.I., Jantan, A., Omolara, A.E., Dada, K.V., Mohamed, N.A., Arshad, H. State-of-the-art in artificial neural network applications: A survey. Heliyon. 2018 Nov 23; 4(11):e00938. doi: 10.1016/j.heliyon.2018.e00938.

7. Albawi, S. Mohammed, T. A., Al-Zawi, S. Understanding of a convolutional neural network. 2017 International Conference on Engineering and Technology (ICET), Antalya, Turkey, 2017, pp. 1-6, doi: 10.1109/ICEngTechnol.2017.8308186.

8. Hussain, M. Sustainable Machine Vision for Industry 4.0: A Comprehensive Review of Convolutional Neural Networks and Hardware Accelerators in Computer Vision. AI, 2024, 5, pp. 1324-1356. doi: 10.3390/ai5030064.

9. Girshick, R. Fast R-CNN. 2015 IEEE International Conference on Computer Vision (ICCV), Santiago, Chile, 2015, pp. 1440-1448, doi: 10.1109/ICCV.2015.169.

10. Ren, S. He, K. Girshick R. Sun, J. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks. In IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 39, no. 6, pp. 1137-1149, 1 June 2017, doi: 10.1109/TPAMI.2016.2577031

11. Liu, W. Anguelov, D. Erhan, D. Szegedy, C. Reed, S. Fu, C-Y. Berg, A. SSD: Single Shot MultiBox Detector. 2016. 9905. Pp. 21-37. Doi:10.1007/978-3-319-46448-0_2.

12. Redmon, J. Divvala, S. Girshick R. Farhadi, A. You Only Look Once: Unified, Real-Time Object Detection, 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Las Vegas, NV, USA, 2016, pp. 779-788, doi: 10.1109/CVPR.2016.91.

13. Dai, J. Li, Yi. He, K. Sun, J. R-FCN: Object Detection via Region-based Fully Convolutional Networks. In Proceedings of the Conference on Advances in Neural Information Processing Systems 29 (NIPS 2016), Barcelona, Spain, 5-10 December 2016; doi: 10.48550/arXiv.1605.06409.

14. He, K. Zhang, X. Ren, S. Sun, J. Deep residual learning for image recognition. In Proceedings of the IEEE Uonference on Uomputer Uision and Uattern Uecognition (CVPR), Las Vegas, NV, USA, 27-30 June 2016. pp. 770-778, doi: 10.1109/CVPR.2016.90.

15. Szegedy, C. Ioffe, S. Vanhoucke, V. Alemi, A. (2016). Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning. doi:10.48550/arXiv.1602.07261.

16. Li, C., Li, L., Jiang, H., Weng, K., Geng, Y., Li, L., Ke, Z., Li, Q., Cheng, M., Nie, W., Li, Y., Zhang, B., Liang, Y., Zhou, L., Xu, X., Chu, X., Wei, X., & Wei, X. (2022). YOLOv6: A Single-Stage Object Detection Framework for Industrial Applications. ArXiv, abs/2209.02976.

17. Wang, C., Bochkovskiy, A., & Liao, H.M. (2022). YOLOv7: Trainable Bag-of-Freebies Sets New State-of-the-Art for Real-Time Object Detectors. 2023IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), pp. 7464-7475.

18. Sohan, M. Sai Ram, T. Reddy, R. Venkata, C. A Review on YOLOv8 and Its Advancements. In Proceedings of the International Conference on Data Intelligence and Cognitive Informatics, Tirunelveli, India, 27-28 June 2023; pp. 529-545.

19. Wang, C.Y., Yeh, I.H., Mark Liao, H.Y. (2025). YOLOv9: Learning What You Want to Learn Using Programmable Gradient Information. In: Leonardis, A., Ricci, E., Roth, S., Russakovsky, O., Sattler, T., Varol, G. (eds) Computer Vision - ECCV 2024. ECCV 2024. Lecture Notes in Computer Science, vol 15089. Springer, Cham. Doi: 10.1007/978-3-031-72751-1_1

20. Wang, C.Y., Liao, H.Y.M., Wu, Y.H., Chen, P.Y., Hsieh, J.W., Yeh, I.H. CSPNet: A new backbone that can enhance learning capability of CNN. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops, Seattle, WA, USA, 14-19 June 2020; pp. 390-391.

21. Wang, C.Y.; Liao, H.Y.M.; Yeh, I.H. Designing network design strategies through gradient path analysis. arXiv 2022, doi: 10.48550/arXiv.2211.04800.

22. Wang, A. Chen, H. Liu, L. Chen, K. Lin, Z. Han, J. Ding, G. YOLOv10: Real-Time End-to-End Object Detection. arXiv 2024, doi:10.48550/arXiv.2405.14458

23. Ultralytics. YOLOv10 Documentation: Model Variants. URL:/https://docs.ultralytics.com/models/yolov10/#model-variants (Дата обращения 15.09.2024).

24. Jegham, N. Koh, C.Y. Abdelatti, M. Hendawi, A. Evaluating the Evolution of YOLO (You Only Look Once) Models: A Comprehensive Benchmark Study of YOLO11 and Its Predecessors. doi:10.48550/arXiv.2411.00201.

25. Mushtaq, F. Ramesh, K. Deshmukh, S. Ray, T. Parimi, C. Tandon, P. Jha, P.K. Nuts&bolts: YOLO-v5 and Image Processing Based Component Identification System. Eng. Appl. Artif. Intell. 2023, 118, 105665.

26. Zhuang, L. Qi, H. Wang, T. Zhang, Z. A Deep-Learning-Powered Near-Real-Time Detection of Railway Track Major Components: A Two-Stage Computer-Vision-Based Method. IEEE Internet Things J. 2022, 9, 18806-18816. doi: 10.1109/JIOT.2022.3162295.

27. He, H. Automatic Assembly of Bolts and Nuts Based on Machine Vision Recognition. Journal of Physics: Conference Series. 2021, 2113, 012033. doi:10.1088/1742-6596/2113/1/012033.

28. Panigrahi, S.; Raju, U.S.N. DSM-IDM-YOLO: Depth-Wise Separable Module and Inception Depth-Wise Module Based YOLO for Pedestrian Detection. International Journal on Artificial Intelligence Tools. 32. doi:10.1142/S0218213023500112.

29. Ma, Y.; Chai, L.; Jin, L.; Yu, Y.; Yan, J. AVS-YOLO: Object Detection in Aerial Visual Scene. Int. J. Patt. Recogn. Artif. Intell. 2022, 36, 2250004. doi:10.1142/S0218001422500045

30. Устенко, В. Ю. Разработка программного комплекса аннотирования данных для задач компьютерного зрения: объектно-ориентированный подход на основе WINFORMS / В. Ю. Устенко, В. И. Бондаренко // Проблемы искусственного интеллекта. 2024. № 4(35). С. 151-163. DOI 10.24412/24137383-2024-4-151-163.

31. Chen, T.; Ding, Z.; Li, B. Elderly Fall Detection Based on Improved YOLOv5s Network. IEEE Access 2022, 10, 91273-91282.

32. Liu, S.; Wang, Y.; Yu, Q.; Liu, H.; Peng, Z. CEAM-YOLOv7: Improved YOLOv7 Based on Channel Expansion and Attention Mechanism for Driver Distraction Behavior Detection. IEEE Access 2022, 10, 129116-129124.

33. Wang, Y. Wang, H. Xin, Z. Efficient Detection Model of Steel Strip Surface Defects Based on YOLO-V7. IEEE Access 2022, 10, 133936-133944.

34. Cai, Y.; He, M.; Tao, Q.; Xia, J.; Zhong, F.; Zhou, H. Fast Rail Fastener Screw Detection for Vision-Based Fastener Screw Maintenance Robot Using Deep Learning. Appl. Sci. 2024, 14, 3716. https://doi.org/10.3390/app14093716

35. Bubeck, W. Frick, F. Verl, A. Hardware-Accelerated Data Processing of Capacitive Sensor Arrays for Industrial and Service Robotic Applications. In ISR Europe 2022; 54th Inter. Symp. on Robotics, Munich, Germany 2022, pp. 174-179.

36. Зуев, В. М. Сравнение обнаружения объектов средствами искусственного интеллекта в сравнении с классическими методами / В. М. Зуев // Проблемы искусственного интеллекта. 2024. № 3(34). С. 3035. DOI 10.24412/2413-7383-2024-3-30-35.

References

1. Xu, S.; Lu, Y.; Vogel-Hauser, B.; Wang, L. Industry 4.0 and Industry 5.0-Origin, concept and Perception. J. Manuf. Syst. 2021, 61, pp.530-535.

2. Nahavandi, S. Industry 5.0 A human-centric solution. Sustainability 2019, 11, 4371. doi:10.3390/su11164371.

3. Golomidov, A. R. New robotic technologies and their applications / A. R. Golomidov, A. B. Ostapenko // Technical and natural science research in Russia and abroad: from theory to practice: Collection of scientific articles. Krasnodar: Individual Entrepreneur Viktor Kabanov (izdatelstvo "Novatsiya"), 2024. P. 102-105.

4. Kudyukin, V. V. Robotisation as a necessary element of increasing the efficiency of the railway transportation process // Transport of the Russian Federation. - 2023. - № 1-2(104-105). - S. 13-16.

5. Keisang, K. Bader, T. Samikannu, R. Review of operation and maintenance methodologies for solar photovoltaic microgrids. Front. Energy Res. 2021, 9, 730230.

6. Abiodun, O.I., Jantan, A., Omolara, A.E., Dada, K.V., Mohamed, N.A., Arshad, H. State-of-the-art in artificial neural network applications: A survey. Heliyon. 2018 Nov 23; 4(11):e00938. doi: 10.1016/j.heliyon.2018.e00938.

7. Albawi, S. Mohammed, T. A., Al-Zawi, S. Understanding of a convolutional neural network. 2017 International Conference on Engineering and Technology (ICET), Antalya, Turkey, 2017, pp. 1-6, doi: 10.1109/ICEngTechnol.2017.8308186.

8. Hussain, M. Sustainable Machine Vision for Industry 4.0: A Comprehensive Review of Convolutional Neural Networks and Hardware Accelerators in Computer Vision. AI, 2024, 5, pp. 1324-1356. doi: 10.3390/ai5030064.

9. Girshick, R. Fast R-CNN. 2015 IEEE International Conference on Computer Vision (ICCV), Santiago, Chile, 2015, pp. 1440-1448, doi: 10.1109/ICCV.2015.169.

10. Ren, S. He, K. Girshick R. Sun, J. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks. In IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 39, no. 6, pp. 1137-1149, 1 June 2017, doi: 10.1109/TPAMI.2016.2577031

11. Liu, W. Anguelov, D. Erhan, D. Szegedy, C. Reed, S. Fu, C.Y. Berg, A. SSD: Single Shot MultiBox Detector. 2016, 9905. pp. 21-37. doi:10.1007/978-3-319-46448-0_2.

12. Redmon, J. Divvala, S. Girshick R. Farhadi, A. You Only Look Once: Unified, Real-Time Object Detection, 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR ), Las Vegas, NV, USA, 2016, pp. 779-788, doi: 10.1109/CVPR.2016.91.

13. Dai, J. Li, Yi. He, K. Sun, J. R-FCN: Object Detection via Region-based Fully Convolutional Networks. In Proceedings of the Conference on Advances in Neural Information Processing Systems 29 (NIPS 2016), Barcelona, Spain, 5-10 December 2016; doi: 10.48550/arXiv.1605.06409.

14. He, K. Zhang, X. Ren, S. Sun, J. Deep residual learning for image recognition. In Proceedings of the IEEE Uonference on Uomputer Uision and Uattern Uecognition (CVPR), Las Vegas, NV, USA, 27-30 June 2016. pp. 770-778, doi: 10.1109/CVPR.2016.90.

15. Szegedy, C. Ioffe, S. Vanhoucke, V. Alemi, A. (2016). Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning. doi:10.48550/arXiv.1602.07261.

16. Li, C., Li, L., Jiang, H., Weng, K., Geng, Y., Li, L., Ke, Z., Li, Q., Cheng, M., Nie, W., Li, Y., Zhang, B., Liang, Y., Zhou, L., Xu, X., Chu, X., Wei, X., & Wei, X. YOLOv6: A Single-Stage Object Detection Framework for Industrial Applications. 2022. ArXiv, abs/2209.02976.

17. Wang, C., Bochkovskiy, A., Liao, H.M. YOLOv7: Trainable Bag-of-Freebies Sets New State-of-the-Art for Real-Time Object Detectors. 2023IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), pp. 7464-7475.

18. Sohan, M. Sai Ram, T. Reddy, R. Venkata, C. A Review on YOLOv8 and Its Advancements. In

Proceedings of the International Conference on Data Intelligence and Cognitive Informatics, Tirunelveli, India, 27-28 June 2023; pp. 529-545.

19. Wang, C.Y., Yeh, I.H., Mark Liao, H.Y. (2025). YOLOv9: Learning What You Want to Learn Using Programmable Gradient Information. In: Leonardis, A., Ricci, E., Roth, S., Russakovsky, O., Sattler, T., Varol, G. (eds) Computer Vision - ECCV 2024. Lecture Notes in Computer Science, vol 15089. Springer, Cham. Doi: 10.1007/978-3-031-72751-1_1

20. Wang, C.Y., Liao, H.Y.M., Wu, Y.H., Chen, P.Y., Hsieh, J.W., Yeh, I.H. CSPNet: A new backbone that can enhance learning capability of CNN. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops, Seattle, WA, USA, 14-19 June 2020; pp. 390-391.

21. Wang, C.Y.; Liao, H.Y.M.; Yeh, I.H. Designing network design strategies through gradient path analysis. arXiv 2022, doi: 10.48550/arXiv.2211.04800.

22. Wang, A. Chen, H. Liu, L. Chen, K. Lin, Z. Han, J. Ding, G. YOLOv10: Real-Time End-to-End Object Detection. arXiv 2024, doi:10.48550/arXiv.2405.14458

23. Ultralytics. YOLOv10 Documentation: Model Variants. URL:/https://docs.ultralytics.com/models/yolov10/#model-variants (Date of Addressing 15.09.2024).

24. Jegham, N. Koh, C.Y. Abdelatti, M. Hendawi, A. Evaluating the Evolution of YOLO (You Only Look Once) Models: A Comprehensive Benchmark Study of YOLO11 and Its Predecessors. doi:10.48550/arXiv.2411.00201.

25. Mushtaq, F. Ramesh, K. Deshmukh, S. Ray, T. Parimi, C. Tandon, P. Jha, P.K. Nuts&bolts: YOLO-v5 and Image Processing Based Component Identification System. Eng. Appl. Artif. Intell. 2023, 118, 105665.

26. Zhuang, L. Qi, H. Wang, T. Zhang, Z. A Deep-Learning-Powered Near-Real-Time Detection of Railway Track Major Components: A Two-Stage Computer-Vision-Based Method. IEEE Internet Things J. 2022, 9, 18806-18816. doi: 10.1109/JIOT.2022.3162295.

27. He, H. Automatic Assembly of Bolts and Nuts Based on Machine Vision Recognition. Journal of Physics: Conference Series. 2021, 2113, 012033. doi:10.1088/1742-6596/2113/1/012033.

28. Panigrahi, S.; Raju, U.S.N. DSM-IDM-YOLO: Depth-Wise Separable Module and Inception Depth-Wise Module Based YOLO for Pedestrian Detection. International Journal on Artificial Intelligence Tools. 32. doi:10.1142/S0218213023500112.

29. Ma, Y.; Chai, L.; Jin, L.; Yu, Y.; Yan, J. AVS-YOLO: Object Detection in Aerial Visual Scene. Int. J. Patt. Recogn. Artif. Intell. 2022, 36, 2250004. doi:10.1142/S0218001422500045

30. Ustenko, V. Yu. Development of a software complex of data annotation for computer vision tasks: object-oriented approach based on WINFORMS / V. Yu. Ustenko, V. I. Bondarenko // Problems of Artificial Intelligence. - 2024. - № 4(35). - С. 151-163. - DOI 10.24412/2413-7383-2024-4-151-163.

31. Chen, T.; Ding, Z.; Li, B. Elderly Fall Detection Based on Improved YOLOv5s Network. IEEE Access 2022, 10, 91273-91282.

32. Liu, S.; Wang, Y.; Yu, Q.; Liu, H.; Peng, Z. CEAM-YOLOv7: Improved YOLOv7 Based on Channel Expansion and Attention Mechanism for Driver Distraction Behavior Detection. IEEE Access 2022, 10, 129116-129124.

33. Wang, Y. Wang, H. Xin, Z. Efficient Detection Model of Steel Strip Surface Defects Based on YOLO-V7. IEEE Access 2022, 10, 133936-133944.

34. Cai, Y.; He, M.; Tao, Q.; Xia, J.; Zhong, F.; Zhou, H. Fast Rail Fastener Screw Detection for Vision-Based Fastener Screw Maintenance Robot Using Deep Learning. Appl. Sci. 2024, 14, 3716. https://doi.org/10.3390/app14093716

35. Bubeck, W. Frick, F. Verl, A. Hardware-Accelerated Data Processing of Capacitive Sensor Arrays for Industrial and Service Robotic Applications. In ISR Europe 2022; 54th Inter. Symp. on Robotics, Munich, Germany 2022, pp. 174-179.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

36. Zuev, V. M. Comparison of object detection by means of artificial intelligence in comparison with classical methods / V. M. Zuev // Problems of Artificial Intelligence. 2024. № 3(34). С. 30-35. DOI 10.24412/2413-73832024-3-30-35.

РЕЗЮМЕ

А.Л. Охотников, А.В. Зажигалкин

Обзор ключевых технологий робототехники

В статье проведен анализ текущего состояния отечественной робототехники. Приведен перечень основных применяемых технологий для роботов, основным из которых является искусственный интеллект. Определены основные игроки на отечественном рынке роботов и описаны основные направления их применения на железной дороге.

Приведены примеры использования робототехнических комплексов в ОАО «РЖД» и перечислены перспективные направления работ по роботизации производственных процессов.

Проведен анализ информационных систем, современных алгоритмов и моделей обработки сенсорных данных для обнаружения и идентификации объектов интереса с целью оценки и диагностики подвижного состава и железнодорожной инфраструктуры.

Указано, что технология технического зрения для производственных процессов применяется с использованием сверточных нейронных сетей (CNN). Для использования CNN в области технического зрения приведены требования, в том числе к аппаратным средствам РТК. На базе исследований зарубежных авторов приведена историческая справка развития информационных моделей для обработки сенсорных данных от систем технического зрения. Основное внимание уделено описанию развития моделей архитектуры YOLO, которые направлены на повышение точности и легкости вычислений.

В заключении предложены направления перспективных исследований в области обнаружении и идентификации объектов для успешного развития и применения робототехнических систем и комплексов в нашей жизни.

RESUME

A.L. Okhotnikov, A.V. Zazhigalkin Overview of key technologies of robotechnics

This article analyses the current state of domestic robotics. The list of the main applied technologies for robots, the main of which is artificial intelligence, is given. The main players in the domestic market of robots are identified and the main directions of their application in the railway are described.

Examples of the use of robotic complexes in JSC 'Russian Railways' are given and promising areas of work on robotisation of production processes are listed.

Information systems, modern algorithms and models of sensor data processing for detection and identification of objects of interest for the purpose of evaluation and diagnostics of rolling stock and railway infrastructure are analysed.

It is indicated that vision technology for manufacturing processes is applied using convolutional neural networks (CNN). For the use of CNNs in the field of technical vision the requirements are given, including requirements to the hardware of RTC. On the basis of researches of foreign authors the historical background of development of information models for processing of sensory data from vision systems is given. The main attention is paid to the description of the development of models of YOLO architecture, which are aimed at increasing the accuracy and ease of calculations.

In the conclusion the directions of perspective researches in the field of detection and identification of objects for successful development are suggested.

Охотников Андрей Леонидович - Заместитель начальника Департамента -начальник отдела, Департамент информационных технологий, Отдел стратегического развития, АО «Научно-исследовательский и проектно-конструкторский институт информатизации, автоматизации и связи на железнодорожном транспорте» (АО «НИИАС»), Тел. +7-915-195-08-25, E-mail: [email protected], 109029, Москва, Россия

Область научных интересов: системы автоматического управления движения поездов, системы технического зрения, высокоточные системы позиционирования, киберфизические системы.

Зажигалкин Александр Владимирович - д.э.н., ректор ФГАОУ ДПО «Академия стандартизации, метрологии и сертификации», Тел.+7 (499) 172-47-30, E-mail: [email protected], 109443, Москва, Россия,

Область научных интересов: инновационное развитие транспортной отрасли, системы метрологии, поверка и калибровка, искусственный интеллект в образовании и технологических процессах.

Статья поступила в редакцию 23.01.2025.

i Надоели баннеры? Вы всегда можете отключить рекламу.