Научная статья на тему 'Оценка параметров транспортного потока на основе анализа данных видеорегистрации'

Оценка параметров транспортного потока на основе анализа данных видеорегистрации Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
392
97
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ОБРАБОТКА ИЗОБРАЖЕНИЙ / ОБНАРУЖЕНИЕ ОБЪЕКТОВ / ОЦЕНКИ СКОРОСТИ / IMAGE PROCESSING / OBJECTS DETECTION / SPEED ESTIMATION

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Копенков Василий Николаевич, Мясников Владислав Валерьевич

Данная работа посвящена решению вопросов разработки и исследования алгоритмов и технологий анализа цифровых видеоизображений потока автотранспортных средств с целью обнаружения объектов на последовательности изображений в режиме реального времени и определения таких параметров движения автотранспортных средств, как скорость потока (средняя скорость машин за заданный период) и плотность потока (число машин в единицу времени).

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

THE ESTIMATION OF THE TRAFFIC FLOW PARAMETERS BASED ON THE VIDEOREGISTRATION DATA ANALYSIS

The paper deals with the matters of development and investigation of algorithms and information technology of analysis of digital video stream of vehicles in order to detect objects on the sequence of images in the real-time mode and define the parameters of car traffic, the car speed (the average speed of a car in a given period) and the traffic density (number of vehicles per unit time).

Текст научной работы на тему «Оценка параметров транспортного потока на основе анализа данных видеорегистрации»

ОБРАБОТКА ИЗОБРАЖЕНИЙ, РАСПОЗНАВАНИЕ ОБРАЗОВ

ОЦЕНКА ПАРАМЕТРОВ ТРАНСПОРТНОГО ПОТОКА НА ОСНОВЕ АНАЛИЗА ДАННЫХ ВИДЕОРЕГИСТРАЦИИ

Копенков В.Н., Мясников В.В.

Институт систем обработки изображений РАН, Самарский государственный аэрокосмический университет имени академика С.П. Королёва (национальный исследовательский университет)

Аннотация

Данная работа посвящена решению вопросов разработки и исследования алгоритмов и технологий анализа цифровых видеоизображений потока автотранспортных средств с целью обнаружения объектов на последовательности изображений в режиме реального времени и определения таких параметров движения автотранспортных средств, как скорость потока (средняя скорость машин за заданный период) и плотность потока (число машин в единицу времени).

Ключевые слова: обработка изображений, обнаружение объектов, оценки скорости.

Введение

Задачи цифровой обработки и анализа изображений и сигналов находят широкое применение в различных областях человеческой деятельности [1, 2]. С развитием вычислительной техники и повышением её производительности существенно расширился круг задач, решение которых ранее было практически нереализуемо за приемлемое время. К таким задачам относится обработка потоков видеоданных в реальном времени [3-6]. Такая обработка требуется в системах телеконференций, охранных и других системах. Ещё одним направлением исследований в области обработки видеосигналов, получившим широкое распространение в последнее время, является анализ транспортных потоков [2,7,8].

При этом простая передача видеоданных на монитор оператора малоэффективна. Для повышения эффективности работы видеоинформация должна предварительно обрабатываться - необходимо применение алгоритмов, позволяющих отслеживать изменения, выделять и анализировать различные объекты на изображениях и информировать о наличии нестандартных ситуаций.

Большая часть традиционных методов анализа транспортного потока на основе видеоданных связана с выделением (обнаружением) характерных областей на изображении (регистрационных знаков) и дальнейшим отслеживанием выделенных областей на последующих кадрах. Такое решение зачастую работоспособно, как это представлено в работах [3-5], однако не всегда эффективно вследствие возможной вычислительной сложности (методы обнаружения и покадрового сравнения), не всегда высокой точности (ложное срабатывание, пропуск цели), а так же жёсткой привязки к характерным областям (например, автомобили без номерных знаков, с грязными/нестандартными номерными знаками не будут обнаружены), что неприемлемо в задаче анализа транспортного потока.

Работа организована следующим образом. Формальная постановка задачи и параметры модели получения данных видеорегистрации, а также схема построения технологии обработки представлены в первом параграфе. Во втором параграфе рассматривается опи-

сание и структура алгоритма определения наличия транспортного средства (ТС) на изображении. Третий параграф посвящён определению скорости движения обнаруженных транспортных средств. Далее, в четвёртом параграфе представлены результаты экспериментальных исследований по анализу эффективности определения наличия транспортных средств на цифровом изображении и эффективности алгоритма определения скорости. Пятый параграфе посвящён расчёту плотности потока ТС, и в заключение работы приведены выводы, рекомендации, благодарности и список использованной литературы.

1. Постановка задачи, состав технических средств для анализа транспортного потока

В состав комплекса, обеспечивающего работу предлагаемой информационной технологии, должны входить:

• источник видеосигнала (видеокамера),

• устройство ввода сигнала на ПЭВМ - карта видеоввода, видеокарта с цифровым/аналоговым входом,

• ПЭВМ обработки и хранения информации.

Для тестирования информационной технологии была создана база данных (БД) статических изображений, содержащая изображения зарегистрированных ТС, а также соответствующее ПО для работы с этой БД.

База данных содержит 1041 изображение с видеоплёнки, снятой на автодороге. Относительно каждого из ТС, внесённых в БД, содержится информация следующего характера:

• расположение регистрационного знака (РЗ) ТС (его центра),

• размеры РЗ ТС по вертикали и горизонтали,

• угол наклона РЗ относительно горизонтального положения,

• индикатор наличия РЗ на ТС,

• индикатор видимости (визуальной распознаваемости) РЗ на изображении ТС,

• тип РЗ ТС,

• содержание РЗ - регистрационный номер ТС,

• имя файла BMP, содержащего изображение ТС,

• индикатор корректности информации, содержащейся в текущей записи БД.

Модель съёмки Пусть видеокамера расположена на высоте h и расстоянии Ц от ближайшей точки съёмки (то есть окончания зоны регистрации ТС), как показано на рис. 1. Пусть самая дальняя точка регистрации D расположена на расстоянии Ц. Пусть оптическая ось видеокамеры OB. Плоскость регистрации изображения в видеокамере, как известно, расположена перпендикулярно оптической оси OB. Для удобства её расположение можно выбрать в произвольном месте вдоль OB. Пусть она расположена на EC. Пусть также число строк (матрицы) регистрации по вертикали составляет а также приняты все обозначения, приведённые на рис. 1. Тогда справедливы следующие соотношения.

t = \OC\ = ,Jh2 + L2 , Y = Px-P2,

( h ^

0! = arctg —

( u\

Рис. 1. Геометрическая модель съёмки

Модель обработки видеоданных следующая: модуль ввода видеоинформации формирует на основе поступающего потока видеоданных цифровые изображения, поступающие на вход модуля определения наличия ТС. По динамическим изменениям на цифровых изображениях формируется решение о присутствии или отсутствии на изображении ТС. Изображение обнаруженного ТС поступает на вход модуля определения скорости движения ТС. Данные о скорости перемещения ТС, как и изображение зарегистрированного ТС, должны быть предоставлены пользователю.

Следует отметить, что процедура определения скорости ТС основана не на нахождении номера на каждом кадре, а на нахождении самого транспортного средства. Это означает, что возможно определение скорости транспортных средств с загрязнённым (нераспознаваемым) номером, а также скорости ТС, вообще не имеющих номеров. Кроме того, использование такого подхо-

да позволяет значительно снизить время обработки большинства кадров (так как номер, если он необходим в дальнейшем для распознавания, надо будет искать не на каждом кадре, а лишь на нескольких).

2. Описание алгоритма определения наличия ТС на изображении

Для определения наличия ТС на цифровом изображении используются два изображения: текущее изображение (текущий кадр) и текущая фоновая составляющая (фоновый кадр).

Фоновая составляющая изображения вычисляется следующим образом:

= аХ;-1 + (1 -а)5;-1, (1)

где - текущий фон;

Х1-1 - изображение на предыдущем шаге (предыдущий кадр);

5;-1 - изображение на предыдущем шаге;

а - коэффициент (достаточно маленький), определяющий скорость изменения фона и зависящий от наличия/отсутствия ТС на текущем изображении.

Такое представление фоновой составляющей позволяет накапливать изменения фона, и система автоматически настраивается на изменение фоновых (день, ночь) и погодных (снег, дождь, пасмурно, солнечно) условий.

Изображение X1 представимо в виде:

Х1 = и1 + V, (2)

где и1 - фоновая составляющая (квазистационарная);

V - изображение ТС (изменение фона - шум).

Таким образом, для определения наличия ТС на изображении логично произвести вычитание Х1 (текущего изображения - рис. 2а) из Б1 (текущего фона).

В результате получим область изменения фона, проведя пороговую обработку которой, получим некоторую маску, представляющую собой бинаризованную область изменения, то есть «след» ТС (см. рис. 26).

Параметр а, регулирующий скорость изменения фона, зависит от маски следующим образом:

а) б) в)

Рис. 2. Нахождение ТС на цифровом изображении

если доля маски составляет как минимум 5% от размера изображения (в области видимости есть ТС), то коэффициент а уменьшается в 50 раз, чтобы не накапливать на фоновом изображении шумы; если же доля маски более 5% от размера изображения, то коэффициент а возвращается к исходному значению.

Исключением из этого правила является «время стабилизации системы» - время настройки системы на фоновые и погодные эффекты, когда коэффициент a имеет постоянное значение вне зависимости от доли маски на изображении. При этом по каждой паре изображение - фон ищется дисперсия, и, когда дисперсия на текущем и предыдущем шагах меньше некоторого порога, система считается стабилизированной.

Как только доля маски на изображении превысит 15%, начинается фиксация и нахождение ТС на цифровом изображении. Для фиксации ТС на изображении используется следующий алгоритм:

1) рассчитываем массив математических ожиданий по строкам текущей маски; пересчитываем его значения в виде:

aTw = ai t -10ai+ k, k = 1...5;

2) находим max этого нового массива. В результате преобразования max приходится на максимальный перепад яркости на маске (соответствует под-бамперной зоне ТС на изображении) - см. рис. 2в. На последующих кадрах max массива ищется начиная с позиции max на предыдущем кадре (основываясь на предположении о том, что ТС движется вперёд, то есть «вниз» по изображению);

3) если произошёл «скачок max» (то есть max с текущей позиции не найден) или доля маски становится менее 15%, фиксация ТС на изображении заканчивается.

3. Описание и структура алгоритма определения скорости движения ТС

Для определения скорости движения ТС используются положения max массива перепада яркости на двух кадрах - в начале и при окончании фиксации ТС и соответствующие им замеры времени. То есть при получении очередного кадра видеоизображения фиксируется время его поступления (системным таймером). Если с этого кадра начинается фиксация ТС, то сохраняется координата i1max значения max и время t1 начала фиксации ТС. Если же этим кадром заканчивается фиксация, то сохраняется координата i2max значения max и время t2 завершения фиксации ТС. После завершения фиксации ТС определяется скорость v ТС по времени и координатам max начала и завершения фиксации ТС по следующей формуле:

v=

x (Г)- x {r)

¿2 - ¿1

(3)

здесь lx (^) и lx (С) - реальные расстояния до ТС

от устройства регистрации (видеокамеры), рассчитанные по приведённым ниже формулам.

Учитывая то, что max перепада яркости приходится на подбамперную зону ТС, оценка скорости движения будет наиболее точной при точном соблюдении параметров установки системы получения видеоинформации (высота, расстояние до участка съёмки и положение видеокамеры), так как в данном случае высота крепле-

ния видеокамеры относительно точки фиксации ТС ( max перепада яркости) является постоянной. В случае определения скорости движения ТС путём нахождения РЗ на кадрах высота крепления видеокамеры относительно РЗ является величиной переменной, так как РЗ может находиться на различной высоте (бампер, радиаторная решётка, автобус, грузовик, легковой автомобиль и т.д.), из-за чего возможно менее точное определение скорости движения ТС.

Для определения скорости ТС с учётом геометрической модели съёмки, представленной в параграфе 1, воспользуемся следующим алгоритмом.

Если обозначить i номер строки на зарегистрированном изображении, то соответствующее этой строке расположение точки на отрезке EL, задаваемое расстоянием x от точки E, можно рассчитать как: d

x = i-.

N1 -1

В то же время реальное расстояние lx на плоскости AD от точки A, соответствующее i-й строке изображения, определяется как lx = h• tg(bx), где величина угла b представима:

bx = Р+У x

f

где gx = arctg

(d/2)-x4

b =

P1+P2 2

Высота ОР легко находится из прямоугольного треугольника ОРС:

ОР = ' сое (2).

Тогда

(

gx = arctg

(d/2)-x4

w.

= arctg I I 1 -

2-i ] tg (1'

N1 -1 ) l 2,

Суммируя все вышеприведённые выкладки, вычисление искомого расстояния 1х, соответствующего 1-й строке на изображении, производится в три шага: 1 шаг: рассчитываем и Р2 по формулам

Р1 = arctg

А

Р2 = arctg

( h_ ^ А

2 шаг: рассчитываем bx bx (i +arctg

1 --

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

2

i ] tg

-1 -P2 2

(4)

(5)

2 Ы-1

3 шаг: рассчитываем 1х (1)

1Х (1) = Ь• (Рх (1)). (6)

Для ускорения процесса расчёта значения 1х(1) могут быть затабулированы для всех возможных значений 1 = 0, N -1.

В ситуации, если регистрируемая точка находится на некоторой высоте Ь0 (по отношению к дороге), также можно воспользоваться выражениями (4) - (6) для расчёта реального расстояния до объекта, предва-

рительно заменив значения L,, L2 и h на значения L', L2 и h соответственно, где

h=h-/ь, L = h• tg(ß'), L2 = h• tg(ß2>. (7)

Рис. 3. Геометрическая модель зоны регистрации Получение информации о горизонтальном расположении регистрируемого объекта возможно только при условии известной удалённости его от точки установки камеры. Предположим, что это выполняется, то есть известна реальная удалённость 1х объекта съёмки от устройства регистрации (см. рис. 3). В этом случае из условия подобия треугольников легко получить равенство:

^ = Ч,

где —2 - ширина зоны регистрации в самой ближней точке (удалённой на Ь2). Тогда, учитывая, что для границ цифрового изображения должны выполняться равенства:

^ = -при (л = 0) & (1Х = ¿2),

шх = + -у, при (Л = N2-1) & (1Х = ¿2)

(где N2 - число отсчётов матрицы регистрации по горизонтали, ]х - номер искомого отсчёта), можно получить следующее окончательное выражение для горизонтальной координаты зарегистрированной точки:

"x (X ) = W

(

jx - (N2 ') / 2

N2 -'

(8)

В ситуации, если регистрируемая точка находится на некоторой высоте hg (по отношению к дороге), то также можно использовать выражение (8), предварительно заменив значение W2 на значение W2,

Щ |ОС'|

где Щ = М"

Величины | OC|, | OC| легко находятся из теоремы Пифагора:

\oc'\ = <j h2+( l )2, \oc\ = j h2 +( l )2

Выражение (8) можно переписать в виде:

"x ( Jx, hg ) = W2

№ (i«)

yj( h - hg )2 +((h - hg) tg (ß, ))2 '

Заметив, что L = h• tg(ß2), получаем окончательное выражение:

j - (N2 -')/2

"x ( Jx, hg )= W,

h

(9)

Ъ - Ъ \ N2 -1 Данной формулой, как очевидно, можно пользоваться как в ситуации наличия вертикального смещения, так и для Ъд = 0 .

4. Результаты экспериментальных исследований

Экспериментальные исследования эффективности определения наличия ТС на цифровом изображении

Экспериментальные исследования эффективности определения наличия ТС на цифровом изображении проведены по записи потока движущихся ТС (около 40 мин.), состоящей из некоторого числа небольших отрезков, представляющих собой различные временные и погодные условия съёмки.

Таблица 1. Статистика обнаружения движущихся транспортных средств

Про- ТС, за- ТС зафиксирова-

пуск фикс. но несколько раз Вид съёмки

ТС поздно 2 3 4

4 1 9 1 0 День (10 мин.)

8 22 16 1 1 Ночь (20 мин.)

io 0 13 2 1 День-Зима (8 мин.)

22 23 38 4 2 38,5 мин. »900 ТС

В случае ночной записи количество пропущенных и поздно зафиксированных ТС завышено, так как ночная запись состоит из большого количества записей небольшого размера и система не успевает настроиться на изменение фоновой составляющей.

Таким образом, вероятность нахождения ТС составляет приблизительно 0,90 - 0,95, вероятность пропуска, соответственно, 0,1 - 0,05. Есть небольшая зависимость от условий съёмки: ночь, день, зима и т.д. Вероятность ложного обнаружения несуществующего ТС равна 0, однако некоторые реальные ТС могут быть зафиксированы дважды (длинные автобусы, машины с прицепами и т.п.).

Экспериментальные исследования эффективности алгоритма определения скорости движения ТС

В настоящий момент нет возможности произвести оценку эффективности алгоритма определения скорости движения ТС ввиду отсутствия точных данных (с патентованного средства определения скорости) о реальной скорости движения ТС на имеющейся видеозаписи, однако результаты оценки скорости движения

ТС соответствуют ожидаемым величинам. Для исследований эффективности и точности определения скорости ТС на последовательности изображений, а также калибровки и уточнения разработанного алгоритма необходимо получить видеозапись транспортного потока с информацией о скорости движения каждого ТС.

5. Оценка параметров транспортного потока по информации об отдельных ТС

К параметрам транспортного потока обычно относят [7, 8] скорость, плотность и собственно величину потока. Под скоростью V подразумевается средняя скорость ТС (за период анализа), под плотностью р -число автомобилей на единицу площади, а под потоком ц - число автомобилей за единицу времени. Динамическая (привязанная ко времени) оценка указанных параметров транспортного потока может быть легко получена по доступной информации о параметрах отдельных транспортных средств. А именно: пусть Т- длительность интервала построения оценки, в течение которого к конкретному моменту времени ¡0 зарегистрировано К ТС с параметрами

{А, ^е где к е1>о - T, ¡о ] - время регистрадии

конкретного ТС, vk - определённая для этого ТС скорость. Тогда оценки искомых параметров можно определить по следующим формулам:

1 к-1 К

) = X ^ , я (¡0 ,

К к =0 Т

Р U ) =

K

v (t0) T -W2| 1 + — У0' 1 2 2L2

Выводы и рекомендации

В работе представлена эффективная технология, позволяющая в режиме реального времени определять следующие параметры движущегося ТС:

- определять наличие или отсутствие ТС на видеопоследовательности данных,

- определять скорость движения ТС на изображении вне зависимости от наличия РЗ на ТС,

- определять плотность транспортного потока на основе обнаружения ТС в единицу времени.

Ключевыми особенностями данной технологии являются:

1. Обнаружение транспортных средств на основе обнаружения не номерного знака на ТС, а самого ТС (что позволяет решать вопрос с обнаружением ТС без номерных знаков).

2. Адаптивная подстройка алгоритма обнаружения ТС к изменяющимся погодным условиям и условиям освещённости.

3. Алгоритм определения скорости на основе отслеживания ТС, а не номерного знака.

4. Высокая вычислительная эффективность разработанных алгоритмов в связи с отсутствием ресурсоёмких вычислений (корреляционные методы).

В ходе дальнейших исследований планируется уточнить модели и настроить параметры алгоритма определения скорости по реальным данным о скорости ТС на видеопоследовательности и разработать методики обнаружения и распознавания номерных знаков на ТС.

Благодарности

Работа выполнена при частичной финансовой поддержке: грантов РФФИ, проекты № 13-07-12103-офи-м, 13-01-12080-офи-м, 12-07-00021-а; программы фундаментальных исследований Президиума РАН «Фундаментальные проблемы информатики и информационных технологий», проект 2.12.

Литература

1. Методы компьютерной обработки изображений / М.В. Гашников, Н.И. Глумов, Н.Ю. Ильясова, В.В. Мясников, С.Б. Попов, В.В. Сергеев, В.А. Сойфер, А.Г. Храмов, А.В. Чернов, В.М. Чернов, М.А. Чичёва, В.А. Фурсов. - Под ред. В.А. Сойфера. - 2-е изд., испр. - М.: Физматлит, 2003. - 784 с.

2. Лукьяница, А.А. Цифровая обработка видеоизображений // А.А. Лукьяница, А.Г. Шишкин. - М.: Ай-Эс-Эс Пресс, 2009. - 518 с.

3. Stauffer, Ch. Learning Patterns of Activity Using RealTime Tracking Pattern Analysis and Machine Intelligence / Chris Stauffer, W. Eric L. Grimson // Pattern Analysis and Machine Intelligence, IEEE Transactions on. - 2000, Aug. -V. 22, Issue 8. - P. 747-757.

4. Казанский, Н.Л. Распределённая система технического зрения регистрации железнодорожных составов / Н.Л. Казанский, С.Б. Попов // Компьютерная оптика. - 2012. -Т. 36, № 3. - C. 419-428.

5. Черкас, П. С. Метод автоматического адаптивного управления процессом формирования изображений в системах распознавания текстовых меток реального времени / П.С. Черкас, В.А. Царев // Компьютерная оптика. - 2013. - Т. 37, № 3. - C. 376-385.

6. Якимов, П. Предварительная обработка цифровых изображений в системах локализации и распознавания дорожных знаков / П. Якимов // Компьютерная оптика. -2013. - Т. 37, № 3. - C. 401-408.

7. Гасников, А.В. Введение в математическое моделирование транспортных потоков / А.В. Гасников, С.Л. Кленов, Е.А. Нурминский, Я.А. Холодов, Н.Б. Шамрай. -М.: МФТИ, 2010. - 362 с.

8. Cascetta, E. Transportation Systems Analysis: Models and Applications / Ennio Cascetta. - 2nd ed. - V. 29. - Springer Optimization and Its Applications, 2009. - 760 p.

References

1. Computer Image Processing, Part II: Methods and algorithms / A.V.Chernov, V.M.Chernov, M.A.Chicheva, V.A.Fursov, M.V.Gashnikov, N.I.Glumov, N.Yu.Ilyasova, A.G.Khramov, A.O.Korepanov, A.V.Kupriyanov, E.V.Myasnikov, V.V.Myas-nikov, S.B.Popov, V.V.Sergeyev. edited by Victor A. Soifer (Editor). VDM Verlag, 2009. 584 p.

2. Lukyanitsa A. // Digital processing of video images // A.A. Lukyanitsa, A.G. Shishkin AG - M.: ISS Press, 2009. - 518 p. - (In Russian)

3. Stauffer, Ch. Learning Patterns of Activity Using RealTime Tracking Pattern Analysis and Machine Intelligence / Chris Stauffer, W. Eric L. Grimson // Pattern Analysis and Machine Intelligence, IEEE Transactions on. - 2000, Aug. -V. 22, Issue 8. - P. 747-757.

6.

Kazanskiy N. The distributed technical vision system of registration railway trains / N.L. Kazanskiy, S.B. Popov // Computer optics. - 2012. - Vol. 36(3). - P. 419-428. - (In Russian). Cherkas P. Method of automatic adaptive control of image acquisition process in real time text label recognition systems / P.S. Cherkas, V.A. Tsarev // Computer optics. -2013. - Vol. 37(3). - P. 376-385. - (In Russian). Yakimov P. Preprocessing of digital images in systems of location and recognition of road signs // Computer

optics. - 2013. - Vol. 37(3). - P. 401-408. - (In Russian).

7. Gasnikov, A. Introduction to Mathematical Traffic Flow Modeling / A.V. Gasnikov, S.L. Klenov, E.A. Nurminski, Ya.A. Holodov, N.B. Shamrai. - Мoscow: MFTI, 2010. -362 p. - (In Russian).

8. Cascetta, E. Transportation Systems Analysis: Models and Applications / Ennio Cascetta. - 2nd ed. - V. 29. - Springer Optimization and Its Applications, 2009. - 760 p.

THE ESTIMATION OF THE TRAFFIC FLOW PARAMETERS BASED ON THE VIDEOREGISTRATION DATA ANALYSIS.

V.N. Kopenkov, V. V. Myasnikov Image Processing Systems Institute of the Russian Academy of Sciences, S.P. Korolyov Samara State Aerospace University (National Research University)

Abstract

The paper deals with the matters of development and investigation of algorithms and information technology of analysis of digital video stream of vehicles in order to detect objects on the sequence of images in the real-time mode and define the parameters of car traffic, the car speed (the average speed of a car in a given period) and the traffic density (number of vehicles per unit time). Key words: image processing, objects detection, speed estimation.

Сведения об авторах Копенков Василий Николаевич, 1978 года рождения. В 2001 окончил Самарский государственный аэрокосмический университет (СГАУ). В 2011 защитил диссертацию на соискание степени кандидата технических наук. В настоящее время работает доцентом кафедры геоинформатики и информационной безопасности СГАУ и по совместительству научным сотрудником в Институте систем обработки изображений РАН. Круг научных интересов включает цифровую обработку сигналов и изображений, геоинформатику, распознавание образов. Имеет 42 публикации, из них 14 статей. Является членом Российской ассоциации распознавания образов и анализа изображений.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

E-mail: [email protected]. http://www.ipsi.smr.ru/staff/kopenkov.htm

Vasiliy Nikolaevich Kopenkov (b. 1978), graduated from the S.P. Korolyov Samara State Aerospace University (SSAU) at 2001, received his PhD in Technical Sciences at 2011. At present he is a docent at SSAU's Geoinformatics and Information Security sub-department, holding a part-time position of a researcher at Image Processing Systems Institute of the Russian Academy of Sciences. The area of interests includes digital signals and image processing, geoinformatics, pattern recognition. He is co-author of 42 scientific papers, including 14 articles. He is a member of Russian Association of Pattern Recognition and Image Analysis.

Мясников Владислав Валерьевич, 1971 года рождения. В 1994 году окончил Самарский государственный аэрокосмический университет (СГАУ). В 1995 году поступил в аспирантуру СГАУ, в 1998 году защитил диссертацию на соискание степени кандидата технических наук, а в 2008 - диссертацию на соискание степени доктора физико-математических наук. В настоящее время работает ведущим научным сотрудником в Институте систем обработки изображений РАН и одновременно доцентом кафедры геоинформатики и информационной безопасности СГАУ. Круг научных интересов включает цифровую обработку сигналов и изображений, геоинформатику, нейронные сети, компьютерное зрение, распознавание образов и искусственный интеллект. Имеет около 100 публикаций, в том числе 40 статей и две монографии (в соавторстве). Член Российской ассоциации распознавания образов и анализа изображений. E-mail: [email protected]. http://www.ipsi.smr.ru/staff/MyasVV.htm

Vladislav Valerievich Myasnikov (b. 1971), graduated (1994) from S.P. Korolyov Samara State Aerospace University (SSAU). He received his PhD in Technical Sciences (2002) and DrSc degree in Physics & Maths (2008). At present he is a leading researcher at Image Processing Systems Institute of the Russian Academy of Sciences, and holding a part-time position of Associate Professor at SSAU's Geoinformatics and Information Security sub-department. The area of interests includes digital signals and image processing, geoinformatics, neural networks, computer vision, pattern recognition and artificial intelligence. He's list of publications contains about 100 scientific papers, including 40 articles and 2 monographs. He is a member of Russian Association of Pattern Recognition and Image Analysis.

Поступила в редакцию 22 декабря 2013 г.

4

5

i Надоели баннеры? Вы всегда можете отключить рекламу.